Refine
Year of publication
Document Type
- Working Paper (75)
- Report (52)
- Conference Proceeding (25)
- Book (16)
- Article (10)
- Preprint (7)
- Doctoral Thesis (3)
- Other (1)
Language
- German (137)
- English (51)
- Multiple languages (1)
Has Fulltext
- yes (189)
Keywords
- Versicherungswirtschaft (36)
- Optimierung (20)
- Forschungsbericht (19)
- Risikomanagement (17)
- Optimization (13)
- Versicherungsmathematik (13)
- Forschung (10)
- Modellierung (9)
- Soft Computing (9)
- Versicherung (9)
- Rückversicherung (8)
- Versicherungswissenschaft (8)
- Digitalisierung (7)
- Institut für Versicherungswesen (7)
- Research Report (7)
- Resilienz (7)
- Schadenversicherung (7)
- Solvency II (7)
- Simulation (6)
- Barwert (5)
- Benchmarking (5)
- Bewertete Markov-Kette (5)
- Embedded Value (5)
- Evolutionärer Algorithmus (5)
- Forschungsstelle Versicherungsmarkt (5)
- Globale Optimierung (5)
- Markov-Ketten (5)
- Risiko (5)
- Versicherungsrecht (5)
- Altersversorgung (4)
- Big Data (4)
- Disaster Risk Reduction (4)
- Forschungsstelle FaRis (4)
- Hochschule (4)
- Kapitalanlage (4)
- Lebensversicherung (4)
- Markov-Kette (4)
- Metaheuristik (4)
- Modeling (4)
- Resilience (4)
- Verwundbarkeit (4)
- Wirtschaftswissenschaften (4)
- insurance (4)
- Baudenkmal (3)
- Betriebliche Altersversorgung (3)
- Computational Intelligence (3)
- Extreme Events (3)
- Forschungsstelle Versicherungsrecht (3)
- Genetic Programming (3)
- Genetisches Programmieren (3)
- Hochschuldidaktik (3)
- Interne Modelle (3)
- Kraftfahrtversicherung (3)
- Kriging (3)
- Krisenmanagement (3)
- Künstliche Intelligenz (3)
- Marketing (3)
- Markov Chain (3)
- Maschinelles Lernen (3)
- Mehrkriterielle Optimierung (3)
- Natural Hazards (3)
- Naturgefahr (3)
- Required Capital (3)
- Risk Management (3)
- Sequential Parameter Optimization (3)
- Sequentielle Parameter Optimierung (3)
- Soziale Software (3)
- Standardformel (3)
- Surrogate (3)
- Surrogate Models (3)
- Versicherungsbranche (3)
- Versicherungsmarketing (3)
- Versicherungsmathematische Bewertung (3)
- Versicherungsmathematischer Barwert (3)
- Versicherungswesen (3)
- Versuchsplanung (3)
- Vulnerability (3)
- 3D Printing (2)
- Anpassung (2)
- Architektur (2)
- Asset-Liability-Management (2)
- Bayesian Optimization (2)
- Bevölkerungsschutz (2)
- COVID-19 (2)
- Charakteristische Funktion (2)
- Climate Change Adaptation (2)
- Co-Kriging (2)
- Combined simulation (2)
- Design (2)
- Design of Experiments (2)
- Deutsche Aktuarvereinigung (2)
- Direktversicherung (2)
- E-Learning (2)
- Economic Value Added (2)
- Ensemble Methods (2)
- Ereignisdefinition (2)
- Event Detection (2)
- Evolutionary Algorithms (2)
- Evolutionary Computation (2)
- Evolutionsstrategie (2)
- Evolutionäre Algorithmen (2)
- FaRis (2)
- Farbmittel (2)
- Feldafinger Brandkasse (2)
- Finanzmathematik (2)
- Forschungsschwerpunkt Rückversicherung (2)
- Gaussian Process (2)
- Genetische Algorithmen (2)
- Hochschulforschung (2)
- Holbein, Hans, 1460-1524 (2)
- IVW Köln (2)
- Imputation (2)
- Katastrophe (2)
- Klimawandelanpassung (2)
- Klimaänderung (2)
- Kollektive Sparprozesse (2)
- Köln (2)
- Kölner Forschungsstelle Rückversicherung (2)
- Langlebigkeitsrisiko (2)
- Lehrevaluation (2)
- MCEV (2)
- Machine Learning (2)
- Maltechnik (2)
- Markowitz Optimierung (2)
- Metamodel (2)
- Mikroökonomie (2)
- Moderne (2)
- Multi-Criteria Optimization (2)
- Multiobjective Optimization (2)
- Onlineversicherung (2)
- Optimierungsproblem (2)
- Parallelization (2)
- Performanceoptimierung (2)
- Priced Markov Chain (2)
- Produktionstheorie (2)
- Prognose (2)
- R (2)
- Regression (2)
- Reinsurance (2)
- Risikobehaftete Zahlungsströme (2)
- Sozialmanagement (2)
- Surrogat-Modellierung (2)
- Surrogate Modeling (2)
- Surrogate-based (2)
- Taxonomie (2)
- Taxonomy (2)
- Technische Informatik (2)
- Telematik (2)
- Test Function (2)
- Unterzeichnung (2)
- Value at Risk (2)
- Versicherungsmarkt (2)
- Verstetigung der Kapitalmarkterträge (2)
- Vertrieb (2)
- Wissensmanagement (2)
- Zeitreihenanalyse (2)
- Zivilschutz (2)
- collective saving processes (2)
- direct insurance (2)
- event definition (2)
- flood events (2)
- generationsübergreifende Risikoteilung (2)
- insurance marketing (2)
- intergenerational risk transfer (2)
- motor insurance (2)
- online insurance (2)
- pension insurance (2)
- sales (2)
- smoothing of capital market returns (2)
- social media (2)
- 3D-Druck (1)
- Aachen (1)
- Abgasreinigung (1)
- Actuarial tontine (1)
- Adaptive Schrittweite (1)
- Air-Catering (1)
- Akademiker (1)
- Aktienrenditen (1)
- Aktuare (1)
- Algorithm Tuning (1)
- Algorithmus (1)
- AllSecur (1)
- Alternativer Risikotransfer (1)
- Angewandte Mathematik (1)
- Architekt (1)
- Architektur <Informatik> (1)
- Architekturgeschichte (1)
- Artificial intelligence (1)
- Asset Liability-Management (1)
- Asset liability management (1)
- Ausbildung (1)
- Ausgleichsverfahren (1)
- Automated Driving (1)
- Automated Learning (1)
- Automation (1)
- Automatisiertes Fahren (1)
- Autowerkstätten (1)
- Auxiliaries (1)
- BBOB (1)
- BLANK (1)
- Backtesting (1)
- Bacteria (1)
- Bakterien (1)
- Basis-Infrastrukturen und Services (1)
- Basisrisiko (1)
- Bauaufnahme (1)
- Bauen im Bestand (1)
- Bayesian Learning (1)
- Bayesian Regression (1)
- Behrens, Peter (1)
- Benutzerfreundlichkeit (1)
- Beratung (1)
- Bergisch Gladbach (1)
- Berichtspflichten (1)
- Berlin (1)
- Bewertung (1)
- Bewertung von Zahlungsströmen (1)
- Bewertungsportale (1)
- Big data platform (1)
- BigWa (1)
- Binomialmodell (1)
- Biogas (1)
- Biogas Plant (1)
- Biometrie (1)
- Biotechnologie (1)
- Biotechnology (1)
- Blended Learning (1)
- Board Games (1)
- Brazil (1)
- Business Case Innovation (1)
- Business Intelligence (1)
- Cairns-Blake-Dowd Modell (1)
- Cantelli Pension Scheme (1)
- Cantelli-Zusage (1)
- Capital market risk (1)
- Cashflow (1)
- Cashflow-Matching (1)
- Ccomputational fluid dynamics (1)
- Central limit theorem (1)
- Check24 (1)
- Civil Protection (1)
- Cognition (1)
- Collateralized Reinsurance (1)
- Composite Materials (1)
- Computational fluid dynamics (1)
- Conditional inference tree (1)
- Consumer Information (1)
- Continuous Optimization (1)
- Copula (1)
- Customer Journey (1)
- Customized Distribution (1)
- Cyclone Dust Separator (1)
- DA-Direkt (1)
- DAX (1)
- Data Analysis (1)
- Data Mining (1)
- Data Modelling (1)
- Data-Warehouse-Konzept (1)
- Datenanalyse (1)
- Datenschutz (1)
- Decision tree (1)
- Denkmalpflege (1)
- Dichotome Zufallsvariable (1)
- Dichotomous random variable (1)
- Dichte <Stochastik> (1)
- Didaktik (1)
- Digitale Lehre (1)
- Digitale Medien (1)
- Disaster Relief Forces (1)
- Discrete Optimization (1)
- Distribuion Fit (1)
- Diversifikation (1)
- Dritte Säule (1)
- Dye (1)
- E-Book (1)
- Economic Scenario Generator (1)
- Effizienz einer Rückversicherungslösung (1)
- Einsatzkräfte (1)
- Electrostatic Precipitator (1)
- Empirical Density (1)
- Empirische Dichte (1)
- Empirische Untersuchung (1)
- Empirische Verteilung (1)
- Ensemble based modeling (1)
- Entdeckendes Lernen (1)
- Enterprise 2.0 (1)
- Entrepreneurship-Kultur (1)
- Entscheidungsprozesse (1)
- Entstauber (1)
- Entwurf (1)
- Erfahrungsbericht (1)
- Erneuerbare Energien (1)
- Evolution Strategies (1)
- Evolutionary Robotics (1)
- Evolutionsstrategien (1)
- Expected Improvement (1)
- Expensive Optimization (1)
- Experiment (1)
- Experimental Algorithmics (1)
- FH Köln (1)
- FPGA ML (1)
- Fachhochschule (1)
- Fair Value Approach (1)
- Fair Value von Reserven (1)
- Faktorinvestments (1)
- Faserverbundwerkstoffe (1)
- Feature selection (1)
- Fehlende Daten (1)
- Fehlerbaum Analyse (1)
- Finanzwirtschaft (1)
- Flood (1)
- Flowcurve (1)
- Flushing (1)
- Flüchtlingssituation 2015/2016 (1)
- Forschendes Lernen (1)
- Forschungsstelle (1)
- Fotografie (1)
- Frauen im Versicherungsvertrieb (1)
- Frauen im Vertrieb (1)
- Freikirchliche Johanneskirche (Bochum) (1)
- Frequency Severity Model (1)
- Fréchet-Hoeffding-Bounds (1)
- Fréchet-Hoeffding-Schranken (1)
- Function Approximation (1)
- Funktionstest (1)
- Färben (1)
- Gauß Markow Modelle (1)
- Gauß-Prozess (1)
- Gefahrenabwehr (1)
- Genetic Algorithms (1)
- Genetic programming (1)
- Genetische Programmierung (1)
- Geografie (1)
- Geschichte (1)
- Gesellschaft (1)
- Gesellschaftlicher Wandel (1)
- Gestaltung (1)
- Glaspartikel (1)
- Glaspulver (1)
- HUK24 (1)
- Hans Scharoun (1)
- Health condition monitoring (1)
- Helfer (1)
- Heston Model (1)
- Heuristics (1)
- Hochschulbau (1)
- Hochschulentwicklung (1)
- Hochschullehre (1)
- Hochwasser (1)
- Holbein, Hans (1)
- Hot rolling (1)
- Hybride Lehre (1)
- INCOR (1)
- IT Architektur (1)
- Industrie 4.0 (1)
- Industry 4.0 (1)
- Informationsverhalten (1)
- Innenarchitektur (1)
- Innovation (1)
- Innovationsakzeptanz (1)
- Innovative Geschäftsmodelle (1)
- Institute for Insurance Studies (1)
- InsurTechs (1)
- Insurance Linked Securities (ILS) (1)
- Integriertes Lernen (1)
- Intergene (1)
- Internes Modell (1)
- Johannes-Kirche (1)
- Jugendstil (1)
- KI (1)
- Kapitalanlagerisiko (1)
- Kapitalmarkt (1)
- Kapitalmarktrisiken (1)
- Katastrophenereignis (1)
- Katastrophenmodellierung (1)
- Katastrophenschutz (1)
- Kfz-Versicherung (1)
- Klassifikation (1)
- Knowledge (1)
- Knowledge extraction (1)
- Kognition (1)
- Kollektiv (1)
- Kollektives Model (1)
- Kompression (1)
- Konsumenteninformation (1)
- Korrelation (1)
- Korrelationsmatrix (1)
- Krankenversicherung (1)
- Kunde und Frauen im Vertrieb (1)
- Kundenerfahrungen (1)
- Kundenorientierung (1)
- Kundenverhalten (1)
- Kunst am Bau (1)
- Kunstgewerbeschule (1)
- Landnutzungsänderungen (1)
- Learning (1)
- Lee-Carter-Modell (1)
- Lehr-/Lernforschung (1)
- Lehramt (1)
- Lehre (1)
- Lehrentwicklung (1)
- Lehrinterventionen (1)
- Lernmotivation (1)
- Lessons learned (1)
- Lichtmessung (1)
- Lifetime Prediction (1)
- Lineare Regression (1)
- Longevity Swaps (1)
- Longevity risk (1)
- Machine learning (1)
- Maklerwordings (1)
- Man-Made-Katastrophen (1)
- Marktanteile (1)
- Massendaten (1)
- Massive Online Analysis (1)
- Material (1)
- Medizintechnik (1)
- Meta-model (1)
- Metaheuristics (1)
- Metal (1)
- Metamodell (1)
- Metamodels (1)
- Methode von Heligman-Pollard (1)
- Mies van der Rohe, Ludwig (1)
- Missing Data (1)
- Missing Data Imputation (1)
- Mixed Models (1)
- Mixed-Effects Models (1)
- Mixed-Methods-Ansatz (1)
- Mobilitäts-Ökosysteme (1)
- Mode (1)
- Model Calibration (1)
- Model Selection (1)
- Modelierung (1)
- Modell (1)
- Modelling (1)
- Modellkalibrierung (1)
- Modelllernen (1)
- Monte Carlo Simulationen (1)
- Monte Carlo simulations (1)
- Monte-Carlo-Simulation (1)
- Motivation (1)
- Motor Insurance (1)
- Movementanalyse (1)
- Multi-Agent Systems (1)
- Multi-criteria Optimization (1)
- Multi-fidelity (1)
- Multiaxial Fatigue (1)
- Muschelknautz Method of Modelling (1)
- Museum (1)
- N-tuple Systems (1)
- Nachhaltigkeit (1)
- Nachkriegsmoderne (1)
- Nat Cat (1)
- Nat Cat Modellierung (1)
- Nat Cat Modelling (1)
- Naturkatastrophen (1)
- Net Promoter Score (1)
- Netzwerk (1)
- Netzwerkberatung (1)
- Netzwerke (1)
- Neue Medien (1)
- Neural Networks (1)
- Neural and Evolutionary Computing (1)
- Non-Life Insurance (1)
- Notrufsystem (1)
- Numerische Strömungssimulation (1)
- On-line Algorithm (1)
- Online Adaptation (1)
- Online Information Review (1)
- Online-Portal (1)
- Online-Sozialisation (1)
- Open RAN (1)
- Optische Zeichenerkennung (1)
- Ordnungspolitik (1)
- Pandemie (1)
- Pandemien (1)
- Pannendienst (1)
- Papierfabrik (1)
- Papierfabrik J. W. Zanders (1)
- Parallelisierung (1)
- Parameter Tuning (1)
- Parametertuning (1)
- Peer-Feedback (1)
- Pensionskasse (1)
- Pensionsversicherungsmathematik (1)
- Performance (1)
- Performancemessung (1)
- Personenversicherungsmathematik (1)
- Pflegeversicherung (1)
- Planimetrische Komposition (1)
- Plywise Analysis (1)
- Praxis (1)
- Predictive Analytics (1)
- Present Value (1)
- Produktentwicklung (1)
- Produktentwicklungsprozess (1)
- Promotion (1)
- Prozesse (1)
- Prägeschrifterkennung (1)
- Prämienrisiko (1)
- Quantitatives Risikomanagement (1)
- REST-konforme Web Services (1)
- RFID (1)
- Raderthal (1)
- Railroad Network (1)
- Referenzmodell (1)
- Reflexion (1)
- Reform (1)
- Regulierung (1)
- Reifegradmodell (1)
- Reinforcement Learning (1)
- Rendite (1)
- Rettungsingenieurwesen (1)
- Rettungskostenersatz (1)
- Return on Risk Adjusted Capital (1)
- Rezeptionsästhetik (1)
- Rezeptionsästhetische Praxis (1)
- Risiko , Risikomanagement , Krisenmanagement , Gefahrenabwehr (1)
- Risiko-Rendite-Profile (1)
- Risikoaggregation (1)
- Risikobudgetierung (1)
- Risikomanagement technischer Systeme (1)
- Risikomaß (1)
- Risikoneutrale Bewertung (1)
- Risikosteuerung (1)
- Risk management of technical systems (1)
- Risk-return-profiles (1)
- Robotics (1)
- Rundfunk (1)
- Rückversicherungsprogramme (1)
- SAP (1)
- SPOT (1)
- Schadenmodellierung (1)
- Selbstbestimmungstheorie (1)
- Selbstfinanzierender Pensionsfonds (1)
- Self-financing pension fund (1)
- Sendegebäude (1)
- Sensor placement (1)
- Sensortechnik (1)
- Signalanalyse (1)
- Silberstift (1)
- Simulated annealing (1)
- Simulation-based Optimization (1)
- Simulationsmodell (1)
- Social Learning (1)
- Social Media Reife (1)
- Social Media Strategie (1)
- Software (1)
- Soziale Medien (1)
- Sozialer Wandel (1)
- Sozialraum (1)
- Spülen (1)
- Stacked Generalization (1)
- Stacking (1)
- Standardisierung (1)
- Statistics (1)
- Statistische Versuchsplanung (1)
- Staubabscheider (1)
- Stochastic Processes (1)
- Stochastik (1)
- Stochastische Matrizen (1)
- Stochastische Prozesse (1)
- Stochastische Simulation (1)
- Stock Returns (1)
- Stornoanalyse (1)
- Strategie (1)
- Structural Health Monitoring (1)
- Studierendenaktivierung (1)
- Superficial Images (1)
- Surrogate Mod (1)
- Surrogate Model (1)
- Surrogate Optimization (1)
- Surrogate model (1)
- Surrogate model based optimization (1)
- Surrogate-Model-Based Optimization (1)
- Surrogate-model-based Optimization (1)
- Surrogates (1)
- Surrogatmodellbasierte Optimierung (1)
- Sustainability (1)
- Synagoge (1)
- System Identification (1)
- Systemarchitektur für verteilte (1)
- Systemidentifikation (1)
- TH Köln (1)
- Tauchrohrtiefe (1)
- Technische Hochschule Köln (1)
- Technische Versicherung (1)
- Telematics Data (1)
- Telematiktarife (1)
- Temporal Difference Learning (TDL) (1)
- Test function generator (1)
- Testgröße (1)
- Textiles (1)
- Time Series (1)
- Time-series (1)
- Traffic Density Classification (1)
- Transparenz (1)
- Trinkwasser (1)
- Trinkwasserversorgung (1)
- Umfrage (1)
- Umnutzung (1)
- Univariate Data (1)
- Unsicherheit (1)
- Unternehmensgründung (1)
- Unternehmensplanung (1)
- Unternehmenssteuerung (1)
- Unternehmenswertmodell (1)
- Unterrichtsplanung (1)
- Unterrichtssimulation (1)
- Value-Based-Management (1)
- Variable reduction (1)
- Varianzanalyse (1)
- Verbraucherschutz (1)
- Verbraucherverhalten (1)
- Verbraucherzufriedenheit (1)
- Vergleichsportal (1)
- Vergleichsportale (1)
- Versciherungsmathematik (1)
- Versicherungen (1)
- Versicherungsaufsicht (1)
- Versorgungsstruktur (1)
- Verteilungsanpassung (1)
- Verunreinigung (1)
- Volkswirtschaftslehre (1)
- Vorbild (1)
- Vorverarbeitung (1)
- WSDL (1)
- Wahrnehmung (1)
- Wasseraufbereitungskosten (1)
- Wasserressourcen (1)
- Wasserverteilung (1)
- Wasserwirtschaft (1)
- Water Distribution Systems (1)
- Water Quality Monitoring (1)
- Water distribution systems (1)
- Web Services (1)
- Wert (1)
- Wertarchitektur (1)
- Wertorientierte Steuerung (1)
- Wiki (1)
- Wissen (1)
- Wissensmanagement in der Versicherungsbranche (1)
- Word-of-Mouth (1)
- World Wide Web 2.0 (1)
- Zeitreihe (1)
- Zentraler Grenzwertsatz (1)
- Zielrente (1)
- Zins (1)
- Zinsgarantien (1)
- Zinsmodelle (1)
- Zufriedenheit (1)
- Zusammengesetzte Poisson-Verteilung (1)
- Zuverlässige eingebettete Systeme (1)
- Zylon Enstauber (1)
- adjustment for loss absorbency (1)
- backtesting (1)
- charakteristische Funktion (1)
- classification (1)
- comparison portal (1)
- compression (1)
- consumer behavior (1)
- decision making (1)
- eCall (1)
- economic assessment (1)
- ecosystem services (1)
- engineering risk analysis (1)
- facultative reinsurance (1)
- fakultative Rückversicherung (1)
- faris (1)
- fault tree analysis (1)
- geld (1)
- high claim size (1)
- ingenieurwissenschaftliche Risikoanalyse (1)
- ino24 (1)
- insurance industry (1)
- insurancestation (1)
- loss absorving capacity (1)
- medical technology (1)
- mobile Anwendungen (1)
- model-assisted optimization (1)
- modellbasierte Optimierung (1)
- opportunity costs (1)
- regression (1)
- reinsurance (1)
- reinsurance programs (1)
- social media maturity model (1)
- social media strategy (1)
- technical insurance (1)
- transparency (1)
- transparo (1)
- unterjährliche Zahlweise (1)
- usability survey (1)
- vorvertragliche Anzeigepflicht (1)
- water resources (1)
- watershed protection (1)
- web 2.0 (1)
- zedierte Reserven (1)
- Ökonomisches Kapital (1)
- Ökosystem-Dienstleistungen (1)
- Überschwemmungsereignisse (1)
- Überschwemmungsrisiko (1)
- ökonomisches Kapital (1)
Institute
- Fakultät 04 / Institut für Versicherungswesen (76)
- Fakultät für Informatik und Ingenieurwissenschaften (F10) (31)
- Fakultät 04 / Schmalenbach Institut für Wirtschaftswissenschaften (24)
- Fakultät 10 / Institut für Informatik (16)
- Fakultät 09 / Institut für Rettungsingenieurwesen und Gefahrenabwehr (11)
- Fakultät 05 / Institut für Baugeschichte und Denkmalpflege (5)
- Zentrum für Lehrentwicklung (5)
- Fakultät 01 / Institut für Sozialpolitik und Sozialmanagement (4)
- Fakultät 02 / Köln International School of Design (3)
- Fakultät 07 / Institut für Nachrichtentechnik (2)
Bewertungsportale, in denen man seine Meinung zu Gütern oder Dienstleistungen äußern kann, sind seit einiger Zeit bekannt und verbreitet. Kann durch sie die Nachfrageseite eine neue, informationsgestützte Machtposition erlangen? Ein Projektteam des Instituts für Versicherungswesen an der TH Köln (ivwKöln) hat sich dieser Frage gewidmet und zunächst kontrastierende Hypothesen aus der Gegenüberstellung des informationsökonomischen und des diffusionstheoretischen Ansatzes entwickelt. Eine Hypothesengruppe bezog sich auf die Frage, von welchen Faktoren die Nachfrage und Wertschätzung von Bewertungsportalen abhängig ist, eine andere unterstellte, dass globale Produkteigenschaften auf der Dimension Such-, Erfahrungs-, Vertrauenseigenschaften sich auf die Nutzung von Portalen auswirkten. Untersucht wurden deshalb sehr unterschiedliche Portale, für Kleidung, Restaurants, Ärzte und Versicherungen. Empirische Grundlage war eine online-gestützte Befragung mit einem Convenience-Sample von 114 Befragten. Neben Studierenden des ivwKöln wurden Angestellte und Personen im Rentenalter zur Teilnahme motiviert, um eine breite Altersstreuung zu erreichen. Die Ergebnisse zur ersten Hypothesengruppe sprechen eindeutig für den diffusionstheoretischen Ansatz. Bei den beiden analysierbaren Portalen (Restaurants und Ärzte) ergibt sich: Entscheidende Faktoren für den Besuch von Restaurantportalen sind Internetaffinität, Alter, Produktinvolvement und Meinungsführerschaft; für den Besuch von Ärzteportalen sind es Internetaffinität und Produktinvolvement. Damit ist auch klar, dass sich die Machtposition der Nachfrager durch die Nutzung von Portalen allenfalls selektiv verstärkt. Die zweite Hypothese, dass Portalnutzung auch von globalen Produkteigenschaften abhängig sei, ließ sich nicht bestätigen.
Modell und Wirklichkeit. Proceedings zum 5. FaRis & DAV Symposium am 6. Dezember 2013 in Köln
(2014)
Das 5. FaRis & DAV Symposium stand unter dem Leitthema „Modell und Wirklich-keit“. Modelle sind zweckorientierte Verdichtungen der Wirklichkeit. Aktuare können nicht die Zukunft vorausberechnen, sie versuchen aber mit Hilfe von Modellen abzuschätzen, was alles in der Zukunft passieren kann. Sie sind darin scheinbar sehr erfolgreich, denn die Versicherungsgesellschaften haben bisher „den Stürmen der Zeit“ erfolgreich widerstanden und haben den Menschen Ver- sicherungsschutz gewährt. Schaut man allerdings auf die Finanzmärkte – sie sind Teil der ökonomischen Wirklichkeit – so lehrt die jüngere Vergangenheit, dass die Realität sich nicht an die Modelle gehalten hat. Da die Finanzmärkte die Versicherungswirtschaft immer stärker durchdringen, können künftig unvollstän- dige oder falsche Modelle die Stabilität der Versicherungswirtschaft gefährden. Modelle prägen jedoch auch die Wahrnehmung der Wirklichkeit und beeinflussen daher die Wirklichkeit. So hat die Modellwelt des Solvency II-Systems massiven Einfluss auf das Produktangebot der Versicherungsunter-nehmen, nicht immer zum Vorteil der Versicherungsnehmer. Das Symposium sollte kritisch hinterfragen, (1) inwieweit unsere aktuariellen „Modellwelten“ noch ihren Zweck erfüllen, (2) wo die grundsätzlichen Grenzen der Modellbildung liegen, (3) in welche Richtung wir unsere Modelle überdenken müssen und (4) welche alternativen Ansätze zur Verfügung stehen.
Mit einem Anlagevolumen von rund 872 Mrd. €1 sind die deutschen Lebensversicherer mit Abstand die wichtigsten institutionellen Kapitalanleger für die Altersvorsorge. Sie stehen vor der Herausforderung, das Geld ihrer Kunden rentabel und zugleich sicher am Kapitalmarkt anzulegen. Derzeit bietet eine Neuanlage in Staatspapiere höchster Bonität eine Rendite, die kaum ausreicht die Preissteigerung auszugleichen und teilweise deutlich niedriger ist als der Bestand- Rechnungszins. Das Geschäftsmodell der klassischen Lebensversicherung mit den Jahrzehnte- umspannenden Zinsgarantien steht zur Disposition: Niedrigzinsphase und der Übergang einem zum kapitalmarktorientierten Aufsichtsmodell (Solvency 2) zwingen die Lebensversicherer über Alternativen nachzudenken. Beim 2. FaRis & DAV-Symposium wurde das Thema „Alternative Zinsgarantien in der Lebensversicherung“ von verschiedenen Seiten beleuchtet. Die Vorträge und Diskussionsbeiträge des Symposiums sind in diesem Konferenzband zusammen gefasst.
Die Forschungsstelle finanzielles & aktuarielles Risikomanagement (FaRis) organisiert Anfang Juni und Dezember eines Jahres gemeinsam mit der Deutschen Aktuarvereinigung (DAV) gemeinsame Symposien zu relevanten aktuariellen Themen. Wegen des Weltkongresses der Aktuare vom 4. bis zum 8. Juni in Berlin wurde das üblicherweise zeitgleich stattfindende FaRis & DAV Symposium als „FaRis at ICA“ veranstaltet – im Sinne einer Zusammenfassung aller Kongressbeiträge von FaRis-Mitgliedern als Überblick für die in FaRis abgedeckten Forschungsgebiete. Die Kurzversionen dieser Beiträge sind in diesem Tagungsband zusammengestellt. Der nur alle vier Jahre stattfindende Weltkongress der Aktuare ist der bedeutsamste Kongress zu allen aktuariellen Fragestellungen. Mit etwa 2.700 nationalen und internationalen Teilnehmern war der ICA 2018 in Berlin der teilnehmerstärkste Kongress seit dem ersten Weltkongress 1895 in Brüssel.
Resilienz bezeichnet die Fähigkeit eines Systems nach einem exogenen Schock wieder in den Normalzustand zurück zu kehren. Wenn beispielsweise durch eine Katastrophe die Wasserversorgung der Bevölkerung nicht mehr gewährleistet ist, so geht es nicht um die Frage, was die Wiederherstellung der Versorgung kostet, sondern mit welchen Maßnahmen die Wiederherstellung überhaupt möglich ist. Eine Versorgungsstruktur ist also so zu gestalten, dass im Vorfeld schon klar ist, wie sie im Katastrophenfall wieder hergestellt werden kann. Bezogen auf ein Wirtschaftsunternehmen ist die Frage nach der Resilienz eine Erweiterung des klassischen Risikomanagements. Das 11. FaRis & DAV-Symposium bot einen Einblick in die Resilienzanalyse beim Katastrophenschutz, zeigte wie ein Resilienz-Management für ein Wirtschaftsunternehmen aussehen kann und schließlich wurde das Resilienz-Konzept auf Fragen der Versicherungsaufsicht übertragen.
Beim kollektiven Sparen teilt sich das gesamte Sparvermögen in zwei Teile: Zum einen in die Summe der individuellen Sparguthaben und zum anderen in ein kollektives Sparvermögen (kollektive Reserve), das nicht dem einzelnen Sparer zuzurechnen ist, sondern der Gesamtheit aller Sparer. Die kollektive Reserve wird dafür verwendet, kurzfristige Wertschwankungen des angelegten Sparver-mögens auszugleichen: Bei einer überdurchschnittlich guten Performance des Gesamtvermögens wird ein Teil der Kapitalerträge der kollektiven Reserve zugeführt. Bei einer schlechten Performance werden Teile der Reserve dafür verwendet, eine kontinuierliche Wertentwicklung der individuellen Guthaben sicher zu stellen. Durch den Auf- und Abbau der kollektiven Reserve werden also die Schwankungen am Kapitalmarkt ausgeglichen. In [Goecke 2011] wurde ein zeitstetiges Modell für den kollektiven Sparprozess vorgestellt und analysiert. In [Goecke 2012] wurde dann das Modell anhand von Monte-Carlo Simulationen getestet. In einem weiteren Schritt soll in der hier vorliegenden Arbeit ein Backtesting durchgeführt werden. Wir untersuchen, wie das Modell des kollektiven Sparens unter Zugrundelegung realer Kapitalmarktdaten sich in der Vergangenheit verhalten hätte. Hierbei vergleichen wir das Modell des kollek- tiven Sparens mit nicht-kollektiven Anlagestrategien.
Wir betrachten einen Pensionsfonds, der den Versorgungsberechtigten gegen Zahlung eines Einmalbeitrags eine Leibrente gewährt. Der Pensionsfonds verfügt über keinen externen Sponsor oder Garantiegeber (daher selbstfinanzierend), so dass alle Renten immer und ausschließlich aus dem vorhandenen Vermögen gezahlt werden müssen. In extremen Situationen (deutliche Verlängerung der Lebenserwartung, substanzielle Einbrüche bei den Kapitalanlagen) muss der Pensionsfonds daher die Renten nach unten anpassen. Wir entwickeln und untersuchen Regeln für das Asset-Liability-Management, bei denen die beiden widerstrebenden Ziele, nämlich hohe und zugleich stabile Renten, simultan berücksichtigt werden. Wir führen den Nachweis, dass der intergenerationale Risikoausgleich im Rentenkollektiv substanziell das Rendite-Risiko-Profil für die Versorgungsempfänger verbessert.
Fondssparen ist dadurch gekennzeichnet, dass das Kapitalanlagerisiko des Fonds unmittelbar auf das Anteilsvermögen wirkt. Altersvorsorgesparer scheuen Kapitalmarktrisiken insbesondere kurz vor Rentenbeginn. Die Idee von With-Profit Policen (Lebensversicherungsverträgen mit Überschussbeteiligung) ist, dass die Kapitalerträge teilweise den Versicherten direkt gutgeschrieben werden und teilweise einer kollektiven Reserve zugeführt werden. Bei positiver Entwicklung am Kapitalmarkt kann so die Reserve aufgebaut werden; Verluste am Kapitalmarkt können andererseits durch Entnahmen aus der Reserve kompensiert werden. Der Auf- und Abbau der kollektiven Reserve bedeutet einen Risikotransfer zwischen den Sparergenerationen. Wir stellen hier ein zeitstetiges Modell zur Analyse dieses Risikotransformationsprozesses vor. Mit Hilfe stochastischer Prozesses können wir Aussagen über Grenzverteilungen, risikoneutrale Bewertungen und Ruinwahrscheinlichkeiten herleiten. Anhand von Rendite-Risikoprofilen kann nachgewiesen werden, dass der intergenerationale Risikotransfer tatsächlich einen Nutzeneffekt hat.
Beim kollektiven Sparen teilt sich das gesamte Sparvermögen in zwei Teile: Zum einen in die Summe der individuellen Sparguthaben und zum anderen in ein kollektives Sparvermögen (kollektive Reserve), das nicht den einzelnen Sparer zuzurechnen ist, sondern der Gesamtheit aller Sparer. Die kollektive Reserve wird dafür verwendet, kurzfristige Wertschwankungen des angelegten Sparvermögens auszugleichen: Bei einer überdurchschnittlich guten Performance des Gesamtvermögens wird ein Teil der Kapitalerträge der kollektiven Reserve zugeführt. Bei einer schlechten Performance werden Teile der Reserve dafür verwendet, eine kontinuierliche Wertentwicklung der individuellen Guthaben sicher zu stellen. Durch den Auf- und Abbau der kollektiven Reserve werden also die Schwankungen am Kapitalmarkt ausgeglichen. In [Goecke 2011] wurde ein zeitstetiges Modell für den kollektiven Sparprozess vorgestellt und analysiert. In der hier vorliegenden Arbeit untersuchen wir zeit-diskrete Versionen des Modells, die wir mit Hilfe von Monte-Carlo-Simulationen auswerten. Hierbei berechnen wir verschiedenen Rendite-Risiko-Profile des kollektiven Sparens und vergleichen diese mit entsprechenden Profilen für nicht-kollektive Anlagestrategien (Constant-Mix-, Buy-and- Hold- und CPPI-Strategien). Der Vergleich zeigt einen klaren komparativen Vorteil des kollektiven Sparens.
A pension system is resilient if it able to absorb external (temporal) shocks and if it is able to adapt to (longterm) shifts of the socio-economic environment. Defined benefit (DB) and defined contribution pension plans behave contrastingly with respect to capital market shocks and shifts: while DB-plan benefits are not affected by external shocks they totally lack adaptability with respect to fundamental changes; DC-plans automatically adjust to a changing environment but any external shock has a direct impact on the (expected) pensions. By adding a collective component to DC-plans one can make these collective DC (CDC)-plans shock absorbing - at least to a certain degree. In our CDC pension model we build a collective reserve of assets that serves as a buffer to capital market shocks, e.g. stock market crashes. The idea is to transfer money from the collective reserve to the individual pension accounts whenever capital markets slump and to feed the collective reserve whenever capital market are booming. This mechanism is particular valuable for age cohorts that are close to retirement. It is clear that withdrawing assets from or adding assets to the collective reserve is essentially a transfer of assets between the age cohorts. In our near reality model we investigate the effect of stock market shocks and interest rate (and mortality) shifts on a CDC- pension system. We are particularly interested in the question, to what extend a CDC-pension system is actually able to absorb shocks and whether the intergenerational transfer of assets via the collective reserve can be regarded as fair.
Die Risikowahrnehmung von Bürgern und Verbrauchern weicht aufgrund von psychologischen Verzerrungseffekten in vielen Fällen deutlich von den realen Risiken ab, was zu „irrationalen“ Entscheidungen und ungeeignetem Vorsorgen und Versichern führen kann. Ziel der Studie ist es, solche Abweichungen in der Wahrnehmung von alltäglichen Risiken in der deutschen Bevölkerung aufzuzeigen. Im Wege einer empirischen Untersuchung wurde daher repräsentativ erhoben, wie unterschiedliche Risiken aus den drei Lebensbereichen „Auto und Mobilität“, „Eigentum, Beruf und Familie“ sowie „Gesundheit und Leben“ in der Bevölkerung eingeschätzt werden. Der subjektiven Risikowahrnehmung werden dann die entsprechenden statistischen Eintrittswahrscheinlichkeiten gegenüber gestellt.
Im Ergebnis zeigt sich, dass die Wahrscheinlichkeit seltener Ereignissemeist überschätzt wird. Das gilt wiederum insbesondere für „medienwirksame“ Ereignisse wie tödliche Verkehrsunfälle oder die Gefahr durch Terroranschläge. Häufigere Ereignisse werden dagegen eher unterschätzt. Neben Sachschäden oder Eigentumsdelikten gilt dies insbesondere für Brand-und Leitungswasserschäden. Besonders auffällig ist zudem die Unterschätzung der Häufigkeit von Rechtsfällen. Bezogen auf die eigene Person im Vergleich zur Betroffenheit in der Bevölkerung, werden Terrorgefahren, tödliche Verkehrsunfälle und Computerkriminalität als besonders hoch eingeschätzt. Kontakt mit dem Gesetz –sei es ein Verlust der Fahrerlaubnis, einer Straftat verdächtigt zu werden oder in einen zivilen Rechtsstreit verwickelt zu werden, betrifft hingegen eher die Bevölkerung allgemein und damit „die Anderen“. Auch Erfahrungen im persönlichen Umfeld spielen eine wichtige Rolle, indem die eigene Gefährdung als deutlich höher eingeschätzt wird. Das gilt in besonderem Maße für Ereignisse, die ansonsten als sehr unwahrscheinlich angesehen werden (z.B. tödlicher Flugzeugunfall, tödliches Gewaltverbrechen, Straftatverdacht), aber auch für Berufsunfähigkeits-sowie Krankheitsrisiken.
Social Media werden mittlerweile auch von vielen deutschen Versicherern für die Kommunikation mit ihren Kunden und Interessenten eingesetzt. Die Intensität und der Erfolg unterscheiden sich jedoch signifikant voneinander. Inhalt dieses Artikel ist ein Reifegradmodell für die deutsche Versicherungswirtschaft, das auf Basis belastbarer Key Performance Indikatoren die Social Media-Reife eines Versicherungsunternehmens in Form eines Ratings bemisst. Weiterhin wird eine erste Einschätzung des Reifegrades der deutschen Service-, Direkt- und öffentlichen Versicherer geboten, das auf den Einzelratings von 52 Unternehmen beruht.
This paper introduces UniFIeD, a new data preprocessing method for time series. UniFIeD can cope with large intervals of missing data. A scalable test function generator, which allows the simulation of time series with different gap sizes, is presented additionally. An experimental study demonstrates that (i) UniFIeD shows a significant better performance than simple imputation methods and (ii) UniFIeD is able to handle situations, where advanced imputation methods fail. The results are independent from the underlying error measurements.
When using machine learning techniques for learning a function approximation from given data it is often a difficult task to select the right modeling technique.
In many real-world settings is no preliminary knowledge about the objective function available. Then it might be beneficial if the algorithm could learn all models by itself and select the model that suits best to the problem.
This approach is known as automated model selection. In this work we propose a
generalization of this approach.
It combines the predictions of several into one more accurate ensemble surrogate model. This approach is studied in a fundamental way, by first evaluating minimalistic ensembles of only two surrogate models in detail and then proceeding to ensembles with three and more surrogate models.
The results show to what extent combinations of models can perform better than single surrogate models and provides insights into the scalability and robustness of the approach. The study focuses on multi-modal functions topologies, which are important in surrogate-assisted global optimization.
Multiagentensysteme sind eine „wissensverarbeitende Technologie“, die im Fall von CESSAR mit in einer Ontologie abgelegten semantischen Objektbeschreibungen arbeitet und die z. B. zur Suche und Vernetzung von Inhalten zu zuvor bestimmten operativen Zwecken verwendet werden kann. Ziel des iC-RFID-Projektes war die Entwicklung und Demonstration eines durchgängig „end-to-end“ RFID-gestützten Dienstleistungsprozesses im Luftverkehrscatering. Im Ergebnis zeigen die betriebswirtschaftlichen Studien zu CESSAR eine Reihe konkreter Nutzenpotenziale auf.
We propose to apply typed Genetic Programming (GP) to the problem of finding surrogate-model ensembles for global optimization on compute-intensive target functions. In a model ensemble, base-models such as linear models, random forest models, or Kriging models, as well as pre- and post-processing methods, are combined. In theory, an optimal ensemble will join the strengths of its comprising base-models while avoiding their weaknesses, offering higher prediction accuracy and robustness. This study defines a grammar of model ensemble expressions and searches the set for optimal ensembles via GP. We performed an extensive experimental study based on 10 different objective functions and 2 sets of base-models. We arrive at promising results, as on unseen test data, our ensembles perform not significantly worse than the best base-model.
RGP is genetic programming system based on, as well as fully integrated into, the R environment. The system implements classical tree-based genetic programming as well as other variants including, for example, strongly typed genetic programming and Pareto genetic programming. It strives for high modularity through a consistent architecture that allows the customization and replacement of every algorithm component, while maintaining accessibility for new users by adhering to the "convention over configuration" principle.
When researchers and practitioners in the field of
computational intelligence are confronted with real-world
problems, the question arises which method is the best to
apply. Nowadays, there are several, well established test
suites and well known artificial benchmark functions
available.
However, relevance and applicability of these methods to
real-world problems remains an open question in many
situations. Furthermore, the generalizability of these
methods cannot be taken for granted.
This paper describes a data-driven approach for the
generation of test instances, which is based on
real-world data. The test instance generation uses
data-preprocessing, feature extraction, modeling, and
parameterization. We apply this methodology on a classical
design of experiment real-world project and generate test
instances for benchmarking, e.g. design methods, surrogate
techniques, and optimization algorithms. While most
available results of methods applied on real-world
problems lack availability of the data for comparison,
our future goal is to create a toolbox covering multiple
data sets of real-world projects to provide a test
function generator to the research community.
This paper introduces CAAI, a novel cognitive architecture for artificial intelligence in cyber-physical production systems. The goal of the architecture is to reduce the implementation effort for the usage of artificial intelligence algorithms. The core of the CAAI is a cognitive module that processes declarative goals of the user, selects suitable models and algorithms, and creates a configuration for the execution of a processing pipeline on a big data platform. Constant observation and evaluation against performance criteria assess the performance of pipelines for many and varying use cases. Based on these evaluations, the pipelines are automatically adapted if necessary. The modular design with well-defined interfaces enables the reusability and extensibility of pipeline components. A big data platform implements this modular design supported by technologies such as Docker, Kubernetes, and Kafka for virtualization and orchestration of the individual components and their communication. The implementation of the architecture is evaluated using a real-world use case.
In facing recent natural and man-made disasters Disaster Risk Reduction (DRR) and Climate Change Adaption (CCA) calls for integrative thinking and learning across cultures, disciplines and institutions. In times of increasing complexity, insecurity and uncertainty thinking outside the box becomes essential. This first volume of “Integrative Risk and Security Research” presents related research contributions developed in the context of the 2013 DAAD Alumni Summer School "Coping with Disasters and Climate Extremes - Challenges & Cooperation Potential". It invites the reader to look beyond common perspectives of DRR and CCA and relates climate change and natural disasters with interdisciplinary and bottom-up policy making.
Mit dem Forschungsschwerpunkt „Bevölkerungsschutz im gesellschaftlichen Wandel“ (BigWa) untersuchten an der Technischen Köln verschiedene Fachbereiche in den vergangenen Jahren interdisziplinär die Auswirkungen des Wandels der Gesellschaftsstruktur (z.B. höheres Durchschnittslebensalter, Rückgang der Geburtenrate) auf den Bevölkerungsschutz. Weniger Menschen engagieren sich ehrenamtlich in Hilfsorganisationen und zugleich stellen sich Behörden und Organisationen mit Sicherheitsaufgaben durch neue Gefahrenereignisse weitere Herausforderungen. Mit diesem Band werden auszugsweise im Rahmen des Forschungsschwerpunkts erfolgte Arbeiten, gewonnene Erkenntnisse und Ergebnisse dargestellt sowie verschiedene betreute Abschlussarbeiten vorgestellt.
This volume is a collection of thoughts and ideas around the concepts of resilience and vulnerability related to their application in the context of disaster risk. Each of the chapters can be classified as an essay, a working paper, or simply as a think piece. Irrespective of different contexts and themes they are united as they represent efforts to grasp the elusive concepts of vulnerability, resilience, exposure, risk in context of natural hazards or wilful destruction and the potential disasters these may cause. One further common feature of these pieces put together in this volume is that they were never really became known and acknowledged. Most of these writings, or versions thereof have never been published in printed media. They all originate from the period between 2008 and 2018. Some of these “early thoughts” might have been premature then. We speculate however, that in light of the present state of the international scientific discourse in the respective area and the ever flourishing conceptual debates around vulnerability and resilience some of the ideas found in these “hidden essays” may trigger second thoughts and hence could enliven the present debates. Thus next to be the historical documentation of what has been pondered on a decade ago, some scientific follow up may occur.
Im Band 2/2019 werden Ergebnisse und Inhalte der Definitionphase des Deutsch-Iranischen Projektes „Basis-Infrastrukturen und Services einer inklusiven Katastrophenresilienz im Iran – Basic Infrastructures and Services for Enhancing Inclusive Community Disaster Resilience in Iran“ (INCOR) veröffentlicht. Er gibt einen Überblick über die Inhalte des Projekts und beleuchtet die Hintergründe und Konzeption. Weiter werden Synergien zwischen dem Resilienz-Ansatz für Kritische Infrastrukturen und dem Ansatz der „inclusiveness“ nach UN HABITAT beschrieben. Außerdem wird über die Iranisch-Deutschen Experten Workshops in Teheran und Köln berichtet, welche den internationalen Austausch von Katastrophenschutz-Managern förderten. Abschließend werden Möglichkeiten genannt, wie INCOR dem Sendai Framework beiträgt.
In diesem Artikel schlagen wir die Verwendung eines genetischen Algorithmus (GA) zur Kalibrierung eines Stochastischen Prozesses an eine empirische Dichte von Aktienrenditen vor. Anhand des Heston Models zeigen wir wie eine solche Kalibrierung durchgeführt werden kann. Neben des Pseudocodes für einen einfachen aber leistungsfähigen GA präsentieren wir zudem auch Kalibrierungs-ergebnisse für den DAX und den S&P 500.
Der Forschungsgegenstand der vorliegenden Arbeit ist die Maltechnik von Hans Holbein d. Ä. Die Materialien und deren Verwendung werden dabei im historischen und kunsttechnologischen Kontext der großen Altarwerke des Künstlers um 1500 betrachtet. Methodisch stehen die Auswertung historischer Quellen zur Maltechnik, die kunsttechnologische Untersuchung und materialanalytische Verfahren im Zentrum.
Die extensive Beimischung von geriebenem Glas und Quarz im Farbmaterial Holbeins, die in solch einem Umfang im Material eines nordeuropäischen Künstlers noch nie nachgewiesen werden konnte, ist ein zentrales Thema der Arbeit, genauso wie die eingehende Beschäftigung mit Holbeins Palette und seiner Malerei an sich.
Neben der analytischen Untersuchung der verwendeten Farbmittel und Materialien ist die Auseinandersetzung mit der Unterzeichnung und deren Bildwirkung ein weiteres wichtiges Forschungsthema. Dazu werden die Handzeichnungen des Künstlers hinsichtlich des Stils und der Materialien als Vergleichsmaterial herangezogen.
Die Untersuchung liefert sowohl in Bezug auf die Materialien als auch auf deren Anwendung eine Erweiterung und Vertiefung des Kenntnisstandes zur Maltechnik um 1500 in vielen Bereichen.
Der Forschungsgegenstand der vorliegenden Arbeit ist die Maltechnik von Hans Holbein d. Ä. Die Materialien und deren Verwendung werden dabei im historischen und kunsttechnologischen Kontext der großen Altarwerke des Künstlers um 1500 betrachtet. Methodisch stehen die Auswertung historischer Quellen zur Maltechnik, die kunsttechnologische Untersuchung und materialanalytische Verfahren im Zentrum. Die extensive Beimischung von geriebenem Glas und Quarz im Farbmaterial Holbeins, die in solch einem Umfang im Material eines nordeuropäischen Künstlers noch nie nachgewiesen werden konnte, ist ein zentrales Thema der Arbeit, genauso wie die eingehende Beschäftigung mit Holbeins Palette und seiner Malerei an sich.
Neben der analytischen Untersuchung der verwendeten Farbmittel und Materialien ist die Auseinandersetzung mit der Unterzeichnung und deren Bildwirkung ein weiteres wichtiges Forschungsthema. Dazu werden die Handzeichnungen des Künstlers hinsichtlich des Stils und der Materialien als Vergleichsmaterial herangezogen. Die Untersuchung liefert sowohl in Bezug auf die Materialien als auch auf deren Anwendung eine Erweiterung und Vertiefung des Kenntnisstandes zur Maltechnik um 1500 in vielen Bereichen.
Die Professionalisierung als Lehrkraft erfordert laut Baumert & Kunter (2013) Kompetenzen in den Bereichen Fachwissen und Fachdidaktik, verbunden mit hoher Reflexionsfähigkeit über eigenes Handeln. Oft erst im Referendariat findet die systematische Verzahnung von Theorie und Praxis statt. Im vorliegenden Beitrag wird beschrieben, wie in der Fachdidaktik Naturwissenschaft und Technik bereits in einem Bachelormodul eine Unterrichtssimulation als Prüfungsform eingesetzt wird. Dabei wird mit Portfolios und Peer-Feedback erprobt, wie sich die Selbstreflexion der Studierenden für ausgewählte fachwissenschaftliche und fachdidaktische Aspekte fördern lässt, um Grundlagen für eine lernendenzentrierte Haltung zu legen.
Im 50. Jubiläumsjahr der TH Köln haben wir uns einem bislang wenig behandelten Thema gewidmet, nämlich der Kunst an den Gebäuden der Technischen Hochschule Köln.
Die TH Köln verfügt als größte Fachhochschule in Deutschland über zwei Standorte in Köln, den Campus Südstadt und den Campus Deutz. Darüber hinaus gibt es zwei weitere Standorte in Gummersbach und Leverkusen. Da sich die künstlerischen Objekte ausschließlich an den Gebäuden innerhalb des Stadtgebiets von Köln befinden, beschränkt sich diese Betrachtung auf die historischen Gebäude des Campus Südstadt sowie auf den maßgeblich in den 1970er Jahren entstandenen Komplex des Campus Deutz.
Data pre-processing is a key research topic in data mining because it plays a
crucial role in improving the accuracy of any data mining algorithm. In most
real world cases, a significant amount of the recorded data is found missing
due to most diverse errors. This loss of data is nearly always unavoidable.
Recovery of missing data plays a vital role in avoiding inaccurate data
mining decisions. Most multivariate imputation methods are not compatible
to univariate datasets and the traditional univariate imputation techniques
become highly biased as the missing data gap increases. With the current
technological advancements abundant data is being captured every second.
Hence, we intend to develop a new algorithm that enables maximum
utilization of the available big datasets for imputation. In this paper, we
present a Seasonal and Trend decomposition using Loess (STL) based
Seasonal Moving Window Algorithm, which is capable of handling patterns
with trend as well as cyclic characteristics. We show that the algorithm is
highly suitable for pre-processing of large datasets.
EventDetectR: An efficient Event Detection System (EDS) capable of detecting unexpected water quality conditions. This approach uses multiple algorithms to model the relationship between various multivariate water quality signals. Then the residuals of the models were utilized in constructing the event detection algorithm, which provides a continuous measure of the probability of an event at every time step. The proposed framework was tested for water contamination events with industrial data from automated water quality sensors. The results showed that the framework is reliable with better performance and is highly suitable for event detection.
Mit dem Sommer 2015 steigt die Zahl der geflüchteten Menschen, die in Deutschland und damit auch in Köln Schutz suchen, stark an. Neu war die Entwicklung jedoch nicht. Bereits seit 2010 verzeichnete die Stadt Köln einen Anstieg der Geflüchtetenzahlen, auf die die Verwaltung und die Stadtgesellschaft jedoch nur langsam reagierten. Die Fakultät für Angewandte Sozialwissenschaften der Technischen Hochschule hatte das Thema bereits im Sommersemester 2014 auf die Agenda gesetzt und sich hochschulintern und -extern mit dem Ansteigen der Flüchtlingszahlen und der Verantwortung von Stadt und Sozialer Arbeit auseinandergesetzt. Durch die hohen Flüchtlingszahlen in 2015 hat diese Debatte neue Bedeutung erhalten.
Ausgehend von den Widersprüchen, in denen professionelle Soziale Arbeit handelt, lautet die zentrale Frage dieser explorativen Studie: Welchen Handlungsspielraum hat die Soziale Arbeit in der Arbeit mit geflüchteten Menschen, die in Gemeinschaftsunterkünften untergebracht sind?
Cyclone Dust Separators are devices often used to filter solid particles from flue gas. Such cyclones are supposed to filter as much solid particles from the carrying gas as possible. At the same time, they should only introduce a minimal pressure loss to the system. Hence, collection efficiency has to be maximized and pressure loss minimized. Both the collection efficiency and pressure loss are heavily influenced by the cyclones geometry. In this paper, we optimize seven geometrical parameters of an analytical cyclone model. Furthermore, noise variables are introduced to the model, representing the non-deterministic structure of the real-world problem. This is used to investigate robustness and sensitivity of solutions. Both the deterministic as well as the stochastic model are optimized with an SMS-EMOA. The SMS-EMOA is compared to a single objective optimization algorithm. For the harder, stochastic optimization problem, a surrogate-model-supported SMS-EMOA is compared against the model-free SMS-EMOA. The model supported approach yields better solutions with the same run-time budget.
Der vorliegende Artikel beschreibt den hybriden Lehransatz im Modul Empirische Forschungsmethoden, das als Teil des Vertiefungsschwerpunktes Social Computing für Studierende im vierten Fachsemester im Bachelorstudiengang Medieninformatik an der Technischen Hochschule Köln (TH Köln) angeboten wird. Das Modul wurde im Sommersemester 2022 mit Anteilen von Online- und Präsenzlehre durchgeführt und anschließend von den Teilnehmenden mittels einer Umfrage evaluiert. Die Ergebnisse werden ebenfalls vorgestellt und zusammengefasst.
Hochschulen initiieren und fördern immer stärker das unternehmerische Denken und Handeln ihrer Studierenden und tragen maßgeblich zu ihrer Qualifizierung als Gründerinnen und Gründer bei. Entrepreneurship Education sowie die Bereitstellung von Einrichtungen und Angeboten für junge Gründerinnen und Gründer spielen eine zentrale Rolle und sollen Innovationen als wissensbasierten Output fördern. Die vorliegende Untersuchung geht der Fragestellung nach, wie Hochschulen am Beispiel der Technischen Hochschule Köln – kurz TH Köln – ihre Studierenden unternehmerische Kompetenzen vermitteln und sie in Bezug auf Gründungsaktivitäten sensibilisieren, mobilisieren und unterstützen können, um so eine Entrepreneruship-Kultur im Zeitablauf zu entwickeln und zu etablieren. Sie bezieht zwei empirische Studien mit ein: eine aktuelle Befragung der Studierenden aus dem Jahre 2019 sowie eine Befragung aus dem Jahre 2016. So lassen sich aktuelle sowie im Zeitablauf vergleichende Aussagen ableiten.
Nach größeren überregionalen und auch kleineren regionalen Schadenereignissen wird wiederholt diskutiert, welche Mechanismen und Maßnahmen erforderlich sind, um die Gesellschaft widerstandsfähiger gegen Naturgefahren (und auch andere Gefahren) zu machen. Diese öffentlich, auf politischer und wissenschaftlicher Ebene geführte Auseinandersetzung führt stets zu einem gewissen Aktionismus, zu unmittelbaren Bekundungen von monetärer Abgeltung der Schäden, und zu Bekenntnissen im Sinne einer erforderlichen nachhaltigeren Schutzstrategie basierend auf dem Risikoansatz. lm Laufe von Wochen und Monaten nach den Ereignissen verebbt diese Diskussion allerdings regelmäßig, nur vereinzelt werden grundlegende Transformationsprozesse im Umgang mit Naturgefahren angestoßen. Vor diesem Hintergrund stellte das 27. Treffen des Arbeitskreises Naturgefahren/ Naturrisiken die Fragen nach dem Zusammenhang zwischen der Rolle von Wissen, Erfahrung und Lernen im Umgang mit gegenwärtigen aber auch zukünftigen Naturgefahren in den Mittelpunkt. Die vorliegende Ausgabe der Schriftenreihe ‚Integrative Risk and Security Research‘ bietet nun, im Rahmen von Fach- sowie Diskussionsbeiträgen, Einblicke in die dort diskutierten Perspektiven und deckt dabei eine Vielzahl von Gefahren und Risiken ab, wie z.B. Überschwemmung, Hitze, Frost- und Brandschaden in der Landwirtschaft, ein mögliches Versagen des Stromnetzes, Erdbeben, Sturmfluten und Lawinen.
In der vorliegenden Publikation werden die persönliche Zufriedenheit und die Motivation von eingesetzten Helfern des Bevölkerungsschutzes im Hochwassereinsatz 2013 in Deutschland betrachtet. Die Ziele dieser Studie sind eine Analyse der Zufriedenheit mit diesem Einsatz, die Ermittlung von Beeinflussungsfaktoren für die Zufriedenheit und die Bewertung der Auswirkungen auf zukünftige Einsätze. Für die Erreichung dieser Ziele wurden die notwendigen Daten über eine retrospektive Umfrage von November 2013 bis Januar 2014 erhoben, welche über soziale Medien und organisationsinterne Verteiler veröffentlicht wurde und deren Beantwortung auf einer internetgestützten Plattform möglich war. Mittels statistischer Auswertung der Daten kann eine Überprüfung von aufgestellten Thesen in Zusammenhang mit der persönlichen Zufriedenheit und die Analyse von unterschiedlichen Beeinflussungsfaktoren erfolgen. Die Ergebnisse können den Organisationen des Bevölkerungsschutzes als Basis für mögliche Optimierung zukünftiger Einsätze dienen, bilden aber ausschließlich Empfehlungen auf Basis des deutschen Hochwassereinsatzes 2013.
Increasing computational power and the availability of 3D printers provide new tools for the combination of modeling and experimentation. Several simulation tools can be run independently and in parallel, e.g., long running computational fluid dynamics simulations can be accompanied by experiments with 3D printers. Furthermore, results from analytical and data-driven models can be incorporated. However, there are fundamental differences between these modeling approaches: some models, e.g., analytical models, use domain knowledge, whereas data-driven models do not require any information about the underlying processes.
At the same time, data-driven models require input and output data, but analytical models do not. Combining results from models with different input-output structures might improve and accelerate the optimization process. The optimization via multimodel simulation (OMMS) approach, which is able to combine results from these different models, is introduced in this paper.
Using cyclonic dust separators as a real-world simulation problem, the feasibility of this approach is demonstrated and a proof-of-concept is presented. Cyclones are popular devices used to filter dust from the emitted flue gases. They are applied as pre-filters in many industrial processes including energy production and grain processing facilities. Pros and cons of this multimodel optimization approach are discussed and experiences from experiments are presented.
Dieser Schlussbericht beschreibt die im Projekt „CI-basierte mehrkriterielle Optimierungsverfahren für Anwendungen in der Industrie“ (CIMO) im Zeitraum von November 2011 bis einschließlich Oktober 2014 erzielten Ergebnisse. Für aufwändige Optimierungsprobleme aus der Industrie wurden geeignete Lösungsverfahren entwickelt. Der Schwerpunkt lag hierbei auf Methoden aus den Bereichen Computational Intelligence (CI) und Surrogatmodellierung. Diese bieten die Möglichkeit, wichtige Herausforderung von aufwändigen, komplexen Optimierungsproblemen zu lösen. Die entwickelten Methoden können verschiedene konfliktäre Zielgrößen berücksichtigen, verschiedene Hierarchieebenen des Problems in die Optimierung integrieren, Nebenbedingungen beachten, vektorielle aber auch strukturierte Daten verarbeiten (kombinatorische Optimierung) sowie die Notwendigkeit teurer/zeitaufwändiger Zielfunktionsberechnungen reduzieren. Die entwickelten Methoden wurden schwerpunktmäßig auf einer Problemstellung aus der Kraftwerkstechnik angewendet, nämlich der Optimierung der Geometrie eines Fliehkraftabscheiders (auch: Zyklon), der Staubanteile aus Abgasen filtert. Das Optimierungsproblem, das diese FIiehkraftabscheider aufwerfen, führt zu konfliktären Zielsetzungen (z.B. Druckverlust, Abscheidegrad). Zyklone können unter anderem über aufwändige Computational Fluid Dynamics (CFD) Simulationen berechnet werden, es stehen aber auch einfache analytische Gleichungen als Schätzung zu Verfügung. Die Verknüpfung von beidem zeigt hier beispielhaft wie Hierarchieebenen eines Optimierungsproblems mit den Methoden des Projektes verbunden werden können. Neben dieser Schwerpunktanwendung konnte auch gezeigt werden, dass die Methoden in vielen weiteren Bereichen Erfolgreich zur Anwendung kommen können: Biogaserzeugung, Wasserwirtschaft, Stahlindustrie. Die besondere Herausforderung der behandelten Probleme und Methoden bietet viele wichtige Forschungsmöglichkeiten für zukünftige Projekte, die derzeit durch die Projektpartner vorbereitet werden.
There is a strong need for sound statistical analysis of simulation and optimization algorithms. Based on this analysis, improved parameter settings can be determined. This will be referred to as tuning. Model-based investigations are common approaches in simulation and optimization. The sequential parameter optimization toolbox (SPOT), which is implemented as a package for the statistical programming language R, provides sophisticated means for tuning and understanding simulation and optimization algorithms. The toolbox includes methods for tuning based on classical regression and analysis of variance techniques; tree-based models such as classification and regressions trees (CART) and random forest; Gaussian process models (Kriging), and combinations of different meta-modeling approaches. This article exemplifies how an existing optimization algorithm, namely simulated annealing, can be tuned using the SPOT framework.
The use of surrogate models is a standard method to deal with complex, realworld
optimization problems. The first surrogate models were applied to continuous
optimization problems. In recent years, surrogate models gained importance
for discrete optimization problems. This article, which consists of three
parts, takes care of this development. The first part presents a survey of modelbased
methods, focusing on continuous optimization. It introduces a taxonomy,
which is useful as a guideline for selecting adequate model-based optimization
tools. The second part provides details for the case of discrete optimization
problems. Here, six strategies for dealing with discrete data structures are introduced.
A new approach for combining surrogate information via stacking
is proposed in the third part. The implementation of this approach will be
available in the open source R package SPOT2. The article concludes with a
discussion of recent developments and challenges in both application domains.
Cyclone separators are popular devices used to filter dust from the emitted flue gases. They are applied as pre-filters in many industrial processes including energy production and grain processing facilities.
Increasing computational power and the availability of 3D printers provide new tools for the combination of modeling and experimentation, which necessary for constructing efficient cyclones. Several simulation tools can be run in parallel, e.g., long running CFD simulations can be accompanied by experiments with 3D printers. Furthermore, results from analytical and data-driven models can be incorporated. There are fundamental differences between these modeling approaches: some models, e.g., analytical models, use domain knowledge, whereas data-driven models do not require any information about the underlying processes.
At the same time, data-driven models require input and output data, whereas analytical models do not. Combining results from models with different input-output structure is of great interest. This combination inspired the development of a new methodology. An optimization via multimodel simulation approach, which combines results from different models, is introduced.
Using cyclonic dust separators (cyclones) as a real-world simulation problem, the feasibility of this approach is demonstrated. Pros and cons of this approach are discussed and experiences from the experiments are presented.
Furthermore, technical problems, which are related to 3D-printing approaches, are discussed.
Sequential Parameter Optimization is a model-based optimization methodology, which includes several techniques for handling uncertainty. Simple approaches such as sharp- ening and more sophisticated approaches such as optimal computing budget allocation are available. For many real world engineering problems, the objective function can be evaluated at different levels of fidelity. For instance, a CFD simulation might provide a very time consuming but accurate way to estimate the quality of a solution.The same solution could be evaluated based on simplified mathematical equations, leading to a cheaper but less accurate estimate. Combining these different levels of fidelity in a model-based optimization process is referred to as multi-fidelity optimization. This chapter describes uncertainty-handling techniques for meta-model based search heuristics in combination with multi-fidelity optimization. Co-Kriging is one power- ful method to correlate multiple sets of data from different levels of fidelity. For the first time, Sequential Parameter Optimization with co-Kriging is applied to noisy test functions. This study will introduce these techniques and discuss how they can be applied to real-world examples.
The performance of optimization algorithms relies crucially on their parameterizations. Finding good parameter settings is called algorithm tuning. Using
a simple simulated annealing algorithm, we will demonstrate how optimization algorithms can be tuned using the Sequential Parameter Optimization Toolbox (SPOT). SPOT provides several tools for automated and interactive tuning. The underlying concepts of the SPOT approach are explained. This includes key techniques such as exploratory fitness landscape analysis and response surface methodology. Many examples illustrate
how SPOT can be used for understanding the performance of algorithms and gaining insight into algorithm behavior. Furthermore, we demonstrate how SPOT can be used as an optimizer and how a sophisticated ensemble approach is able to combine several meta models via stacking.
Dieser Schlussbericht beschreibt die im Projekt „Methoden der Computational Intelligence für Vorhersagemodelle in der Finanzund Wasserwirtschaft“ (FIWA) im Zeitraum von Juni 2009 bis einschließlich November 2012 erzielten Ergebnisse. In der Praxis werden für diese Vorhersagemodelle Verfahren der linearen und nichtlinearen Regression, NN, Support Vector Machines (SVM) und viele weitere Verfahren eingesetzt. Das Projekt FIWA befasste sich mit der Entwicklung modularer Systeme zur Analyse und Prognose von Daten aus der Finanz- und Wasserwirtschaft mittels Verfahren der Computational Intelligence (CI) mit methodischem Fokus auf dem CI-Unterbereich Genetic Programming (GP). Ein zentrales Ergebnis der wissenschaftlichtechnischen Arbeit im Projekt FIWA ist die Entwicklung der Open-Source Software RGP. Dabei handelt es sich um ein Software- Framework für GP, welches auf die automatische Erstellung von Vorhersagemodellen spezialisiert ist. Für die Finanzwirtschaft stand ein Handelssimulator zu Verfügung, der auf Basis von echten Finanzdaten die Qualität verschiedener Strategien testen kann. Dieser wurde im Projekt weiterentwickelt. GP wurde genutzt, um auf Basis der Simulationen genaue Vorhersagen und damit verbesserte Handelsstrategien zu entwerfen. Auch für die Wasserwirtschaft wurden Prognoseverfahren mit GP entwickelt. Der Schwerpunkt lag dabei auf der Füllstandprognose für Regenüberlaufbecken. Hier konnten moderne Verfahren mit GP oder SVM klassische Methoden deutlich schlagen oder verbessern. Auch der Einsatz von Sequentieller Parameter Optimierung zeigte signifikante Verbesserungen für die Prognosegenauigkeit. Dabei war die Kombination von klassischen Methoden und GP besonders erfolgreich. GP ist nach wie vor ein sehr aktives Forschungsgebiet und erlaubt auch für die Folgezeit zahlreiche Kooperationen mit den Partnern der Fachhochschule Köln. Sowohl für technische Anwendungen als auch zur Lösung von Forschungsfragen bieten sich zahlreiche Möglichkeiten an.
Ziel des Forschungsprojektes "Mehrkriterielle CI-basierte Optimierungsverfahren für den industriellen Einsatz" (MCIOP) war die Verringerung von Schadstoffemissionen in Kohlekraftwerken. Der wissenschaftliche Fokus lag auf der Entwicklung von Methoden, die in der Lage sind, interpretierbare Modelle für die Schadstoffemissionen automatisch zu generieren. Hierzu wurden mehrkriterielle Optimierungsverfahren entwickelt und eingesetzt. Zur Zeit- und Kostenreduktion wurde die Optimierung durch Surrogat-Modelle erfolgen, die abgestuft mit aufwändigeren Simulationen zum Einsatz kamen („optimization via simulation“). Bei der Untersuchung von Staubabscheidern konnten durch eine mehrkriterielle Optimierung unterschiedliche Zielgrößen, wie z.B. Abscheidegrad und Druckverlust, gleichzeitig berücksichtigt werden.
Dieser Bericht beschreibt die im Projekt MCIOP im Zeitraum von August 2011 bis einschließlich Juni 2015 erzielten Ergebnisse.
This survey compiles ideas and recommendations from more than a dozen researchers with different backgrounds and from different institutes around the world. Promoting best practice in benchmarking is its main goal. The article discusses eight essential topics in benchmarking: clearly stated goals, well- specified problems, suitable algorithms, adequate performance measures, thoughtful analysis, effective and efficient designs, comprehensible presentations, and guaranteed reproducibility. The final goal is to provide well-accepted guidelines (rules) that might be useful for authors and reviewers. As benchmarking in optimization is an active and evolving field of research this manuscript is meant to co-evolve over time by means of periodic updates.
Evolutionary algorithm (EA) is an umbrella term used to describe population-based stochastic direct search algorithms that in some sense mimic natural evolution. Prominent representatives of such algorithms are genetic algorithms, evolution strategies, evolutionary programming, and genetic programming. On the basis of the evolutionary cycle, similarities and differences between these algorithms are described. We briefly discuss how EAs can be adapted to work well in case of multiple objectives, and dynamic or noisy optimization problems. We look at the tuning of algorithms and present some recent developments coming from theory. Finally, typical applications of EAs to real-world problems are shown, with special emphasis on data-mining applications
Faserverbundwerkstoffe (FVW) und Composites haben in der Luft- und Raumfahrtindustrie, im Automobilbau, beim Bau von Windenergieanlagen und in vielen weiteren zukunftsträchtigen Branchen eine große Bedeutung. Maßnahmen, die ein Erkennen von Schädigungen simultan zur Entstehung ermöglichen und Restbetriebszeiten prognostizieren können, sind geeignet, die Lebensdauer von FVW-Konstruktionen zu erhöhen. Darüber hinaus ist eine zustandsorientierte und somit kosteneffektive Wartung dieser Bauteile möglich.
Sowohl die Prognose, als auch die Detektion von Schäden würde den ressourcenschonenden Einsatz dieser Werkstoff-gruppe ermöglichen. Das sogenannte Structural Health Monitoring (SHM) bezeichnet in diesem Zusammenhang eine Methode, die es ermöglicht, kontinuierlich Anhalts-punkte über die Funktionsfähigkeit von Bauteilen und Konstruktionen zu erhalten.
Dieser Artikel beschreibt die Planung, Durchführung und Analyse von SHM-Experimenten. Das Hauptziel bestand in der Planung von Experimenten zur Gewinnung von Messdaten mittels piezoelektrischen Elementen auf Versuchstafeln, bei denen bewusst trukturbeschädigungen eingebracht wurden. Statistische Auswertungsmethoden sollen auf ihre Eignung getestet werden, Rückschlüsse aus den experimentell gewonnenen Daten auf die Art der Strukturbeschädigungen zu ziehen.
Computational intelligence methods have gained importance in several real-world domains such as process optimization, system identification, data mining, or statistical quality control. Tools are missing, which determine the applicability of computational intelligence methods in these application domains in an objective manner. Statistics provide methods for comparing algorithms on certain data sets. In the past, several test suites were presented and considered as state of the art. However, there are several drawbacks of these test suites, namely: (i) problem instances are somehow artificial and have no direct link to real-world settings; (ii) since there is a fixed number of test instances, algorithms can be fitted or tuned to this specific and very limited set of test functions; (iii) statistical tools for comparisons of several algorithms on several test problem instances are relatively complex and not easily to analyze. We propose amethodology to overcome these dificulties. It is based on standard ideas from statistics: analysis of variance and its extension to mixed models. This work combines essential ideas from two approaches: problem generation and statistical analysis of computer experiments.
Computational intelligence methods have gained importance in several real-world domains such as process optimization, system identification, data mining, or statistical quality control. Tools are missing, which determine the applicability of computational intelligence methods in these application domains in an objective manner. Statistics provide methods for comparing algorithms on certain data sets. In the past, several test suites were presented and considered as state of the art. However, there are several drawbacks of these test suites, namely: (i) problem instances are somehow artificial and have no direct link to real-world settings; (ii) since there is a fixed number of test instances, algorithms can be fitted or tuned to this specific and very limited set of test functions; (iii) statistical tools for comparisons of several algorithms on several test problem instances are relatively complex and not easily to analyze. We propose a methodology to overcome these difficulties. It is based on standard ideas from statistics: analysis of variance and its extension to mixed models. This paper combines essential ideas from two approaches: problem generation and statistical analysis of computer experiments.
Forschendes Lernen versteht sich als ein methodisches Prinzip, das Forschungsorientierung und Verknüpfung von Forschung und Lehre in die Studiengänge und Lehrveranstaltungen integriert und für studentische Lernprozesse nutzbringend anwendet. Studierende sind dabei Teil der Scientific Community.
Dieser Artikel ist ein Erfahrungsbericht, in dem das Konzept des „Forschenden Lernens“ in einer Variante vorgestellt wird, die in den letzten zehn Jahren an einer deutschen Fachhochschule für ingenieurwissenschaftliche Studiengänge entwickelt wurde.
Da es „das“ Forschende Lernen nicht gibt, werden zunächst die für diesen Artikel relevanten Gesichtspunkte zusammengestellt. Darauf aufbauend wird ein Prozessmodell des Forschenden Lernens vorgestellt. Dieses Modell ermöglicht Forschendes Lernen für Bachelor- und Masterstudierende sowie für Doktorandinnen und Doktoranden.
This paper proposes an experimental methodology for on-line machine learning algorithms, i.e., for algorithms that work on data that are available in a sequential order.
It is demonstrated how established tools from experimental algorithmics (EA) can be applied in the on-line or streaming data setting.
The massive on-line analysis (MOA) framework is used to perform the experiments.
Benefits of a well-defined report structure are discussed.
The application of methods from the EA community to on-line or streaming data is referred to as experimental algorithmics for streaming data (EADS).
This report presents a practical approach to stacked generalization in surrogate model based optimization. It exemplifies the integration of stacking methods into the surrogate model building process. First, a brief overview of the current state in surrogate model based opti- mization is presented. Stacked generalization is introduced as a promising ensemble surrogate modeling approach. Then two examples (the first is based on a real world application and the second on a set of artificial test functions) are presented. These examples clearly illustrate two properties of stacked generalization: (i) combining information from two poor performing models can result in a good performing model and (ii) even if the ensemble contains a good performing model, combining its information with information from poor performing models results in a relatively small performance decrease only.
Learning board games by self-play has a long tradition in computational intelligence for games. Based on Tesauro’s seminal success with TD-Gammon in 1994, many successful agents use temporal difference learning today. But in order to be successful with temporal difference learning on game tasks, often a careful selection of features and a large number of training games is necessary. Even for board games of moderate complexity like Connect-4, we found in previous work that a very rich initial feature set and several millions of game plays are required. In this work we investigate different approaches of online-adaptable learning rates like Incremental Delta Bar Delta (IDBD) or Temporal Coherence Learning (TCL) whether they have the potential to speed up learning for such a complex task. We propose a new variant of TCL with geometric step size changes. We compare those algorithms with several other state-of-the-art learning rate adaptation algorithms and perform a case study on the sensitivity with respect to their meta parameters. We show that in this set of learning algorithms those with geometric step size changes outperform those other algorithms with constant step size changes. Algorithms with nonlinear output functions are slightly better than linear ones. Algorithms with geometric step size changes learn faster by a factor of 4 as compared to previously published results on the task Connect-4.
This volume addresses the topics of Disaster Risk Reduction (DRR) and Climate Change Adaption (CCA) from the perspective of participants of the DAAD Alumni Summer School 2013. Contributions from 16 countries are gathered in this volume, thereby sharing specific knowledge on climate extremes, disasters, adaptation and prevention measures as well as current strategies in a range of different national contexts. The DAAD Alumni Summer School opened up a forum for integrative thinking and learning across cultures, disciplines and institutions. This volume is directly linked to the first volume of the series and presents a further outcome of the Summer School 2013. It invites the reader to look beyond common perspectives of DRR and CCA and relates climate change and natural disasters with interdisciplinary and bottom-up policy making. The outcomes presented in the two volumes are a starting point for further international & transdisciplinary knowledge exchange activities planned for the upcoming years.
In den Kommunen wird ein vernetztes, integriertes Handeln durch eine institutionelle Zergliederung der Daseinsvorsorge in eine Vielzahl funktionaler Teilaufgaben behindert. In der Folge dieser Fragmentierung erfahren die Adressaten soziale Dienstleistungen in den Sozialräumen ihres Stadtteils oder Stadtteils funktions- und hierarchiebezogen – d.h. vertikal und horizontal – getrennt. Wegen der Barrieren des engen Ressortdenkens und der fehlenden Transparenz agieren die professionellen Akteure relativ isoliert auf den „operativen Inseln“ fachlicher Zuständigkeiten. Gemeinsame Schnittstellen werden kaum wahrgenommen, was zum Aufbau von ineffizienten Doppelstrukturen und Mehrfachangeboten geführt hat. Vor diesem Hintergrund besteht die innovative Idee darin, in der Kommune eine wirkungsvolle und effiziente Netzwerkversorgung zwischen isolierten Agenturen, professionellen Dienstleistern und ehrenamtlich engagierter Bürger/innen zu entwickeln. Denn das dafür erforderliche organisatorische Verfahren der Netzwerkkooperation, das im Profitbereich bereits seit den 90er Jahren etabliert ist (vgl. Zulieferernetze der Mobilitätsindustrie) wartet im Non-Profit-Sektor noch auf die systematische Einführung. Die wissenschaftlichen und sozialpolitischen Diskurse des letzten Jahrzehnts verdeutlichen jedoch vermehrt den hohen Bedarf einer vernetzungsorientierten Organisationsentwicklung der kommunalen Daseinsvorsorge und ihrer Verwaltungsagenturen. Auf der Ebene der Sozialräume von Stadtteilen und Stadtbezirken, aber auch innerhalb der zentralen Kommunalverwaltung sollen aus diesem Grund sowohl Hierarchiebarrieren zwischen Die Qualitätsentwicklung hängt entscheidend davon ab, ob diese Barrieren überwunden werden und sowohl eine integrierte Vorgehensweise der professionellen Akteure gefunden wird als auch der Anschluss an die zivilgesellschaftlichen Potenziale gelingt. Vor diesem Hintergrund untersucht das Projekt „CityNet“ die Koordination professioneller und ehrenamtlicher Interventionen verschiedener Ressorts, um die individuellen und sozialen Bedürfnisse der Bevölkerung wirkungsvoll und effizient zu sichern. Im Ergebnis werden Instrumente der „Netzwerkplanung“ entwickelt, mit denen die bisher isolierten Leistungen der einzelnen Infrastrukturen und Dienstleistungsanbieter im Sozialraum miteinander bedarfsorientiert und adressatenfokussiert verbunden werden.
Im Jahre 2009 wurde ein Forschungsschwerpunkt „Verteilte Mobile Applikationen“ gegründet, der Forschungsaktivitäten im Bereich der technischen Informatik bündelt. Um Ergebnisse laufender Arbeiten aus den Forschungs- und Entwicklungs-aktivitäten des Forschungsschwerpunkts nach außen zu kommunizieren und um Informatiker und Informationstechniker außerhalb des Forschungsschwerpunkts z.B. aus dem Kölner Raum einzuladen, neue Ergebnisse aus Wissenschaft und technischer Anwendung zu publizieren, wird diese WEB Schriftenreihe gegründet, in der forschungsorientierte Aufsätze und Monographien veröffentlicht werden können. Die erste Nummer der Reihe behandelt Themen wie die Systemarchitektur verteilter mobiler Anwendungen, REST-konforme Web Services, Bildverarbeitungs-algorithmen zur Prägeschrifterkennung und zuverlässige eingebettete Systeme (DCSB Bord).
Mit diesem Bericht dokumentiert das Institut für Versicherungswesen (IVW) seine Forschungsaktivitäten des vergangenen Jahres. Wir geben damit gegenüber der Öffentlichkeit und insbesondere den Freunden und Förderern des Instituts Rechenschaft über die geleistete Forschungsarbeit. Darüber hinaus wollen wir in diesem Forschungsbericht des IVW auch darlegen, welche Forschungsziele wir am Institut verfolgen und welche Aktivitäten derzeit geplant sind.
Die Diskussionsforen der Forschungsstelle Versicherungsrecht behandeln zweimal pro Jahr aktuelle Fragestellungen und neuere Rechtsprechung zum Thema Versicherungsrecht. Die Veranstaltung wendet sich an Versicherungsjuristen, mit Versicherungsrecht befasste Rechtsanwälte und an Betriebswirte, die sich in ihrer beruflichen Praxis mit rechtlichen Fragestellungen beschäftigen müssen. Die Ergebnisse des 6. Diskussionsforums vom 25. September 2012 an der FH Köln sind in diesem Tagungsbericht zusammengefasst.
Mit diesem Bericht dokumentiert das Institut für Versicherungswesen (IVW) seine Forschungsaktivitäten des vergangenen Jahres. Wir geben damit gegenüber der Öffentlichkeit und insbesondere den Freunden und Förderern des Instituts Rechenschaft über die geleistete Forschungsarbeit. Darüber hinaus wollen wir in diesem Forschungsbericht des IVW auch darlegen, welche Forschungsziele wir am Institut verfolgen und welche Aktivitäten derzeit geplant sind.
Das Verhältnis zwischen privater Gestaltung und staatlicher Regulierung in der Versicherungswirtschaft war das herausfordernde Thema des 16. Kölner Versicherungssymposiums 2011 und des vorliegenden Tagungsbandes. In dem allgemeinen Teil werden in Grundsatzbeiträgen die Positionen erwünschter und unerwünschter ordnungspolitischer Eingriffe in die Privatautonomie des Versicherungsmarkts dargestellt. In den anschließenden fünf Arbeitsgruppen zu den Bereichen Lebensversicherung, Krankenversicherung, Pflegeversicherung, Sachversicherungen und Haftpflichtversicherungen wurde das Spannungsverhältnis behandelt. Neben den Expertenstatements sind auch die Diskussionsbeiträge der Tagungsteilnehmer festgehalten.
Die klassische Form der Unternehmenssteuerung durch einfache Unternehmenskenn-ziffern ist inzwischen fast überall durch wertorientierte Steuerungssysteme ersetzt worden, die Risiko und Rendite in sinnvoller Weise gegenüberstellen. In diesem Zusammenhang ist die korrekte Ermittlung des Kapitalbedarfs als dem relevanten Faktor zur Produktion von Versicherungsschutz unverzichtbar. Um hierbei die einzelnen Einflussgrößen hier ursachegerecht separieren zu können, sollte eine adäquate Performancemessung vorgenommen werden.
Mit diesem Bericht dokumentiert das Institut für Versicherungswesen (IVW) seine Forschungsaktivitäten des vergangenen Jahres. Wir geben damit gegenüber der Öffentlichkeit und insbesondere den Freunden und Förderern des Instituts Rechenschaft über die geleistete Forschungsarbeit. Darüber hinaus wollen wir in diesem Forschungsbericht des IVW auch darlegen, welche Forschungsziele wir am Institut verfolgen und welche Aktivitäten derzeit geplant sind.
Mit diesem Bericht dokumentiert das Institut für Versicherungswesen (IVW) seine Forschungsaktivitäten des abgelaufenen Jahres 2011. Wir geben damit gegenüber der Öffentlichkeit und insbesondere den Freunden und Förderern des Instituts Rechenschaft über die geleistete Forschungsarbeit. Darüber hinaus wollen wir in diesem ersten Forschungsbericht des IVW auch darlegen, welche Forschungsziele wir am Institut verfolgen. Schließlich geben wir auch einen kurzen Ausblick auf die für 2012 geplanten Aktivitäten.
Mit diesem Bericht dokumentiert das Institut für Versicherungswesen (IVW) seine Forschungsaktivitäten des vergangenen Jahres. Wir geben damit gegenüber der Öffentlichkeit und insbesondere den Freunden und Förderern des Instituts Rechenschaft über die geleistete Forschungsarbeit. Darüber hinaus wollen wir in diesem Forschungsbericht des IVW auch darlegen, welche Forschungsziele wir am Institut verfolgen und welche Aktivitäten derzeit geplant sind.
Mit diesem Bericht dokumentiert das Institut für Versicherungswesen (ivwKöln) seine Forschungsaktivitäten des vergangenen Jahres. Wir geben damit gegenüber der Öffentlichkeit und insbesondere den Freunden und Förderern des Instituts Rechenschaft über die geleistete Forschungsarbeit. Darüber hinaus wollen wir in diesem Forschungsbericht auch darlegen, welche Forschungsziele wir am Institut verfolgen und welche Aktivitäten derzeit geplant sind.
Gegründet 1829, prägte die Papierfabrik Zanders das Wirtschaftsleben der Stadt Bergisch Gladbach über fast 200 Jahre nachhaltig. Auf dem 37 ha großen Werkgelände finden sich Gebäude aus den verschiedenen Epochen der Papierfabrik und dokumentieren die wechselvolle Geschichte der Firma. Die in diesem Studienprojekt bearbeiteten historischen Werkhallen wurden zusammen mit elf weiteren Objekten auf dem Firmengelände als Baudenkmal in die Denkmalliste der Stadt Bergisch Gladbach aufgenommen. Die erarbeiteten Projekte zeigen verschiedene Wege der Nutzung auf.
Ausgelöst durch die COVID-19-Pandemie im Sommersemester 2020 fanden Hochschulen eine große Bandbreite an lokalen Lösungen für die Ad-hoc Umstellung auf digitale Lehre. Über Notfalllösungen hinaus stellt sich für die Zukunft der Hochschullehre die Frage, welche Chancen hybride Hochschullehre bietet. Dies berührt vor allem notwendige Veränderungen der Makroebene der strukturellen Rahmenbedingungen für das Lehren und Lernen an der Hochschule als Organisation, die auch von den rechtlichen Vorgaben und dem politischen Diskurs zu Studien- und Bildungszielen geprägt ist. Der Band versammelt unterschiedliche Ansätze hochschuldidaktischer Forschung und geht der Frage nach, welche Implikationen sich aus erhobenen empirischen Daten für die Hochschulbildung und die lehrbezogene Hochschulentwicklung ableiten lassen.
Der Band behandelt auf der Makroebene die Themen:
I. Bewertung und Akzeptanz sich verändernder Lehrstrukturen
II. Rahmenbedingungen digitaler/hybrider Lehre aus der Sicht von Lehrenden und Studierenden
III. Die Rolle der Hochschuldidaktik in der Entwicklung digitaler/hybrider Lehrstrukturen
IV. Methodische Bezugsrahmen für die strategische Hochschulentwicklung im Kontext der Digitalisierung
In 2021 feiert die Technische Hochschule Köln (TH Köln) ihr 50-jähriges Jubiläum und damit auch das Institut für Versicherungswesen (ivwKöln), wobei sich inzwischen Forschung, Lehre und Transfer in die Praxis auf alle Risikofelder des Versicherungsgeschäfts und alle Kompetenzbereiche der Versicherungsunternehmen beziehen. Anlässlich dieses Jubiläums hat das ivwKöln daher in einem Band „Risiko im Wandel. Herausforderung für die Versicherungswirtschaft“, der in 2022 als Open Access erscheinen wird, die Vielfalt von Forschung und Praxis aller Mitwirkenden an der Arbeit des Institutes gebündelt zusammengefasst. Der nachfolgende Beitrag soll schon vorab einen Überblick der verschiedenen Forschungsthemen geben.
Der vorliegende Band versucht, einen ersten Überblick über die Inhalte und Wesensmerkmale des noch relativ jungen Studiengangs und Forschungsbereichs Rettungsingenieurwesen an der TH Köln (früher FH Köln) zu schaffen. Damit kann der Sammelband zwar nicht für alle Ausprägungen des „Rettungsingenieurwesens“ (oder Rescue Engineering) auch an anderen Hochschulen stehen. Jedoch soll er einen ersten Eindruck ermöglichen und zwar für Außenstehende aber durchaus auch für Studierende und Kollegen an der TH Köln, was „Rettungsingenieurwesen“ überhaupt ist, und welche fachlichen, methodischen und auch anwendungsbezogenen Inhalte es beinhaltet. Abgrenzungen zu Nachbarstudiengängen oder Aufgabenfeldern sind nicht einfach und auch dieser Sammelband kann nur einen ersten Aufschlag anbieten. Jedoch wird es in fünf oder zehn Jahren einmal interessant sein, wie und wohin sich dieser Studiengang, aber auch die gleichzeitig am Institut für Rettungsingenieurwesen (IRG) stattfindende Forschung hin entwickelt haben wird. Somit dient dieser Band nicht nur der Begriffsbestimmung und inhaltlichen weiteren Ausgestaltung; er soll auch dazu einladen, mit zu überlegen, in welche Richtung sich Lehre und Forschung noch entwickeln könnten.
Mit diesem Bericht dokumentiert das Institut für Versicherungswesen (ivwKöln) seine Forschungsaktivitäten des vergangenen Jahres. Wir geben damit gegenüber der Öffentlichkeit und insbesondere den Freunden und Förderern des Instituts Rechenschaft über die geleistete Forschungsarbeit. Darüber hinaus wollen wir in diesem Forschungsbericht auch darlegen, welche Forschungsziele wir am Institut verfolgen und welche Aktivitäten derzeit geplant sind.
Aufgrund der rasanten technologischen Entwicklungen und den damit einhergehenden erweiterten Möglichkeiten hat für den Begriff „Big Data“ eine starke Begriffserweiterung stattgefunden – insbesondere im Dreiklang Digitalisierung / Big Data / Cloud Computing (DBC). „Big Data“ im weiteren Sinn umfasst inzwischen mindesten die Themenfelder IT & Prozesse, Methoden & Modellierung, Produktentwicklung & Marketing sowie Recht & Datenschutz. Aufgrund der enormen Bedeutung und Vielschichtigkeit des Themas hat sich die Forschungsstelle aktuarielles Risikomanagement (FaRis) bei ihrem 10. FaRis & DAV Symposium mit den quantitativen Aspekten des Begriffs auseinandergesetzt.
Recovery after extreme events - Lessons learned and remaining challenges in Disaster Risk Reduction
(2017)
Disasters such as the Indian Ocean Tsunami 2004, but also other extreme events such as cyclones, earthquakes and tsunami substantially affect the lives of many thousands of people - they are events radically and abruptly changing local circumstances and needs. At the same time they can significantly reshape global paradigms of Disaster Risk Reduction (DRR). Such events also bring to light the challenges in coordinating assistance from the “global community” with all the intended and un-intended effects. Two of the most pressing questions therefore are whether the different actors have learned from the disaster and whether processes of DRR and livelihood improvements have been implemented successfully.
This volume gathers selected papers addressing the following key questions:
- Lessons learned: Which lessons have been learned in a way that a difference can be seen today for the livelihoods and resilience of local people in the regions affected?
- Lessons to be Learned: Despite the body of knowledge created and reflected in a good number of lessons learned studies – what is still unsolved or needs to be emphasized?
- Monitoring and evaluation: Which DRR measures have been perpetuated and how can they be monitored and evaluated scientifically?
- Resilience effects and (unintended) side-effects: Which coping, recovery and adaptation measures are
supported by the resilience paradigm and which other areas are side-lined, neglected or even contrary to the intended effects?
- Dynamics in risk: In which cases has resilience building taken place? In which cases have ulnerabilities
been shifted internally or new vulnerabilities been created?
- Relocation/resettlement: How did the relocation/resettlement process of displaced people take place and what are its long-term effects?
- Urban-rural divide: How have DRR measures in urban vs. rural areas differed and which linkages but also rifts in rehabilitation and reconstruction initiatives can be observed between the two?
- Early warning: What is the future of Early Warning and how can important top-down information chains benefit from or be balanced with bottom-up feedback of users and affected people?
It appears that extreme disaster events spark a plethora of actions in academia, civil society, media, policy, private sector and other organisations. Tragic, as such disasters are, they offer incentives for learning, locally and globally. Lately, disaster impacts have in many cases been detracted through the application of knowledge and experience gained from previous events. However, there are still a number of challenges with regards to learning from past disasters
Mit diesem Bericht dokumentiert das Institut für Versicherungswesen (ivwKöln) seine Forschungsaktivitäten des vergangenen Jahres. Wir geben damit gegenüber der Öffentlichkeit und insbesondere den Freunden und Förderern des Instituts Rechenschaft über die geleistete Forschungsarbeit. Darüber hinaus wollen wir in diesem Forschungsbericht auch darlegen, welche Forschungsziele wir am Institut verfolgen und welche Aktivitäten derzeit geplant sind.
Mit diesem Bericht dokumentiert das Institut für Versicherungswesen (ivwKöln) seine Forschungsaktivitäten des vergangenen Jahres. Wir geben damit gegenüber der Öffentlichkeit und insbesondere den Freunden und Förderern des Instituts Rechenschaft über die geleistete Forschungsarbeit. Darüber hinaus wollen wir in diesem Forschungsbericht auch darlegen, welche Forschungsziele wir am Institut verfolgen und welche Aktivitäten derzeit geplant sind.
Mit diesem Bericht dokumentiert das Institut für Versicherungswesen (ivwKöln) seine Forschungsaktivitäten des vergangenen Jahres. Wir geben damit gegenüber der Öffentlichkeit und insbesondere den Freunden und Förderern des Instituts Rechenschaft über die geleistete Forschungsarbeit. Darüber hinaus wollen wir in diesem Forschungsbericht auch darlegen, welche Forschungsziele wir am Institut verfolgen und welche Aktivitäten derzeit geplant sind.
Das Institut für Rettungsingenieurwesen und Gefahrenabwehr der Technischen Hochschule Köln veranstaltet seit November 2014 die abendliche Vortragsreihe „Risky Monday“, in der Experten aus Wissenschaft und Praxis verschiedene Ansätze, Themen und Denkweisen des interdisziplinären Risiko- und Krisenmanagements präsentieren So erlangen unsere Zuhörer neben Einblicke in gesellschaftliche und technische Aspekte des nationalen Bevölkerungsschutzes und der internationalen humanitären Hilfe, auch Wissen über die zugrunde liegenden konzeptionellen und wissenschaftlichen Ansätze. Die vorliegende Ausgabe bietet einen Überblick über die bis zum Wintersemester 2015/2016 stattgefundenen Vorträge, die beruflichen Hintergründe der Vortragenden und Möglichkeiten für Kooperationen im Rahmen von Bachelor- oder Masterarbeiten. Darüber hinaus finden sich in dieser Ausgabe Diskussionsbeiträge der Vortragenden zu Notfall- und Krisenmanagement in Verwaltungsbehörden, psychosozialer Unterstützung und Stakeholder-Beteiligung in der Katastrophenvorsorge.
Mit diesem Bericht dokumentiert das Institut für Versicherungswesen (ivwKöln) seine Forschungsaktivitäten des vergangenen Jahres. Wir geben damit gegenüber der Öffentlichkeit und insbesondere den Freunden und Förderern des Instituts Rechenschaft über die geleistete Forschungsarbeit. Darüber hinaus wollen wir in diesem Forschungsbericht auch darlegen, welche Forschungsziele wir am Institut verfolgen und welche Aktivitäten derzeit geplant sind.
Mit diesem Bericht dokumentiert das Institut für Versicherungswesen (ivwKöln) seine Forschungsaktivitäten des vergangenen Jahres. Wir geben damit gegenüber der Öffentlichkeit und insbesondere den Freunden und Förderern des Instituts Rechenschaft über die geleistete Forschungsarbeit. Darüber hinaus wollen wir in diesem Forschungsbericht auch darlegen, welche Forschungsziele wir am Institut verfolgen und welche Aktivitäten derzeit geplant sind.