Refine
Year of publication
Document Type
- Working Paper (75) (remove)
Has Fulltext
- yes (75)
Keywords
- Versicherungswirtschaft (16)
- Versicherungsmathematik (8)
- Solvency II (7)
- Barwert (5)
- Bewertete Markov-Kette (5)
- Markov-Ketten (5)
- Risikomanagement (5)
- Rückversicherung (5)
- Benchmarking (4)
- Embedded Value (4)
- Markov-Kette (4)
- Optimierung (4)
- Optimization (4)
- Schadenversicherung (4)
- Versicherungswissenschaft (4)
- insurance (4)
- Betriebliche Altersversorgung (3)
- Hochschuldidaktik (3)
- Markov Chain (3)
- Modeling (3)
- Required Capital (3)
- Standardformel (3)
- Versicherung (3)
- Versicherungsmarketing (3)
- Versicherungsmathematische Bewertung (3)
- Versicherungsmathematischer Barwert (3)
- Altersversorgung (2)
- Charakteristische Funktion (2)
- Digitalisierung (2)
- Direktversicherung (2)
- E-Learning (2)
- Ereignisdefinition (2)
- Hochschulforschung (2)
- Interne Modelle (2)
- Kapitalanlage (2)
- Kollektive Sparprozesse (2)
- Lehrevaluation (2)
- Marketing (2)
- Mikroökonomie (2)
- Onlineversicherung (2)
- Parallelization (2)
- Priced Markov Chain (2)
- Produktionstheorie (2)
- Reinsurance (2)
- Risiko (2)
- Risikobehaftete Zahlungsströme (2)
- Simulation (2)
- Soziale Software (2)
- Test Function (2)
- Value at Risk (2)
- Verstetigung der Kapitalmarkterträge (2)
- Vertrieb (2)
- collective saving processes (2)
- direct insurance (2)
- event definition (2)
- flood events (2)
- generationsübergreifende Risikoteilung (2)
- insurance marketing (2)
- intergenerational risk transfer (2)
- motor insurance (2)
- online insurance (2)
- pension insurance (2)
- sales (2)
- smoothing of capital market returns (2)
- social media (2)
- Abgasreinigung (1)
- Actuarial tontine (1)
- Air-Catering (1)
- Akademiker (1)
- Aktienrenditen (1)
- AllSecur (1)
- Alternativer Risikotransfer (1)
- Artificial intelligence (1)
- Asset Liability-Management (1)
- Asset liability management (1)
- Asset-Liability-Management (1)
- Ausgleichsverfahren (1)
- Automation (1)
- Backtesting (1)
- Basisrisiko (1)
- Bayesian Optimization (1)
- Benutzerfreundlichkeit (1)
- Beratung (1)
- Berichtspflichten (1)
- Bewertung (1)
- Bewertung von Zahlungsströmen (1)
- Bewertungsportale (1)
- Big Data (1)
- Big data platform (1)
- Binomialmodell (1)
- Blended Learning (1)
- Business Intelligence (1)
- Cantelli Pension Scheme (1)
- Cantelli-Zusage (1)
- Capital market risk (1)
- Central limit theorem (1)
- Check24 (1)
- Cognition (1)
- Collateralized Reinsurance (1)
- Composite Materials (1)
- Conditional inference tree (1)
- Consumer Information (1)
- Continuous Optimization (1)
- Copula (1)
- Customer Journey (1)
- Customized Distribution (1)
- DA-Direkt (1)
- DAX (1)
- Data-Warehouse-Konzept (1)
- Decision tree (1)
- Design of Experiments (1)
- Dichotome Zufallsvariable (1)
- Dichotomous random variable (1)
- Dichte <Stochastik> (1)
- Digitale Lehre (1)
- Digitale Medien (1)
- Discrete Optimization (1)
- Distribuion Fit (1)
- Dritte Säule (1)
- E-Book (1)
- Economic Value Added (1)
- Effizienz einer Rückversicherungslösung (1)
- Electrostatic Precipitator (1)
- Empirical Density (1)
- Empirische Dichte (1)
- Empirische Untersuchung (1)
- Empirische Verteilung (1)
- Entrepreneurship-Kultur (1)
- Entscheidungsprozesse (1)
- Erneuerbare Energien (1)
- Evolutionary Computation (1)
- Expensive Optimization (1)
- Fair Value Approach (1)
- Fair Value von Reserven (1)
- Faserverbundwerkstoffe (1)
- Fehlerbaum Analyse (1)
- Feldafinger Brandkasse (1)
- Finanzmathematik (1)
- Flowcurve (1)
- Frauen im Versicherungsvertrieb (1)
- Frauen im Vertrieb (1)
- Frequency Severity Model (1)
- Fréchet-Hoeffding-Bounds (1)
- Fréchet-Hoeffding-Schranken (1)
- Funktionstest (1)
- Gaussian Process (1)
- Gauß Markow Modelle (1)
- Gauß-Prozess (1)
- HUK24 (1)
- Health condition monitoring (1)
- Heston Model (1)
- Hot rolling (1)
- Hybride Lehre (1)
- Imputation (1)
- Industrie 4.0 (1)
- Industry 4.0 (1)
- Informationsverhalten (1)
- Insurance Linked Securities (ILS) (1)
- Integriertes Lernen (1)
- Intergene (1)
- Internes Modell (1)
- Kapitalanlagerisiko (1)
- Kapitalmarkt (1)
- Kfz-Versicherung (1)
- Knowledge extraction (1)
- Kognition (1)
- Kollektiv (1)
- Kollektives Model (1)
- Kompression (1)
- Konsumenteninformation (1)
- Korrelationsmatrix (1)
- Kraftfahrtversicherung (1)
- Kriging (1)
- Kunde und Frauen im Vertrieb (1)
- Kundenverhalten (1)
- Künstliche Intelligenz (1)
- Langlebigkeitsrisiko (1)
- Lehr-/Lernforschung (1)
- Lehramt (1)
- Lehrinterventionen (1)
- Lernmotivation (1)
- Lifetime Prediction (1)
- Longevity risk (1)
- MCEV (1)
- Machine learning (1)
- Markowitz Optimierung (1)
- Marktanteile (1)
- Material (1)
- Medizintechnik (1)
- Meta-model (1)
- Metal (1)
- Metamodels (1)
- Mixed-Methods-Ansatz (1)
- Model Calibration (1)
- Modelierung (1)
- Modellkalibrierung (1)
- Monte Carlo Simulationen (1)
- Monte Carlo simulations (1)
- Monte-Carlo-Simulation (1)
- Multi-Agent Systems (1)
- Multiaxial Fatigue (1)
- Muschelknautz Method of Modelling (1)
- Nat Cat Modellierung (1)
- Nat Cat Modelling (1)
- Neue Medien (1)
- Neural and Evolutionary Computing (1)
- Non-Life Insurance (1)
- Online Information Review (1)
- Online-Portal (1)
- Online-Sozialisation (1)
- Parallelisierung (1)
- Peer-Feedback (1)
- Pensionsversicherungsmathematik (1)
- Performance (1)
- Performancemessung (1)
- Performanceoptimierung (1)
- Personenversicherungsmathematik (1)
- Plywise Analysis (1)
- Present Value (1)
- Prozesse (1)
- Quantitatives Risikomanagement (1)
- RFID (1)
- Referenzmodell (1)
- Reflexion (1)
- Reifegradmodell (1)
- Rendite (1)
- Resilienz (1)
- Return on Risk Adjusted Capital (1)
- Risiko-Rendite-Profile (1)
- Risikoaggregation (1)
- Risikomanagement technischer Systeme (1)
- Risk management of technical systems (1)
- Risk-return-profiles (1)
- Robotics (1)
- Rückversicherungsprogramme (1)
- SAP (1)
- Selbstbestimmungstheorie (1)
- Selbstfinanzierender Pensionsfonds (1)
- Self-financing pension fund (1)
- Signalanalyse (1)
- Social Media Reife (1)
- Social Media Strategie (1)
- Soziale Medien (1)
- Standardisierung (1)
- Staubabscheider (1)
- Stochastic Processes (1)
- Stochastik (1)
- Stochastische Matrizen (1)
- Stochastische Prozesse (1)
- Stock Returns (1)
- Stornoanalyse (1)
- Structural Health Monitoring (1)
- Studierendenaktivierung (1)
- Surrogate (1)
- Surrogate model based optimization (1)
- Surrogates (1)
- TH Köln (1)
- Tauchrohrtiefe (1)
- Technische Versicherung (1)
- Test function generator (1)
- Testgröße (1)
- Time Series (1)
- Transparenz (1)
- Umfrage (1)
- Univariate Data (1)
- Unternehmenssteuerung (1)
- Unternehmenswertmodell (1)
- Unterrichtsplanung (1)
- Unterrichtssimulation (1)
- Value-Based-Management (1)
- Verbraucherschutz (1)
- Verbraucherverhalten (1)
- Vergleichsportal (1)
- Vergleichsportale (1)
- Versicherungen (1)
- Versicherungsaufsicht (1)
- Versicherungsmarkt (1)
- Verteilungsanpassung (1)
- Volkswirtschaftslehre (1)
- Wahrnehmung (1)
- Word-of-Mouth (1)
- World Wide Web 2.0 (1)
- Zentraler Grenzwertsatz (1)
- Zins (1)
- Zinsmodelle (1)
- Zusammengesetzte Poisson-Verteilung (1)
- adjustment for loss absorbency (1)
- backtesting (1)
- charakteristische Funktion (1)
- comparison portal (1)
- compression (1)
- consumer behavior (1)
- decision making (1)
- engineering risk analysis (1)
- facultative reinsurance (1)
- fakultative Rückversicherung (1)
- fault tree analysis (1)
- geld (1)
- high claim size (1)
- ingenieurwissenschaftliche Risikoanalyse (1)
- ino24 (1)
- insurance industry (1)
- insurancestation (1)
- loss absorving capacity (1)
- medical technology (1)
- reinsurance (1)
- reinsurance programs (1)
- social media maturity model (1)
- social media strategy (1)
- technical insurance (1)
- transparency (1)
- transparo (1)
- unterjährliche Zahlweise (1)
- usability survey (1)
- web 2.0 (1)
- zedierte Reserven (1)
- Ökonomisches Kapital (1)
- Überschwemmungsereignisse (1)
- Überschwemmungsrisiko (1)
- ökonomisches Kapital (1)
Institute
- Fakultät 04 / Institut für Versicherungswesen (39)
- Fakultät 04 / Schmalenbach Institut für Wirtschaftswissenschaften (14)
- Fakultät für Informatik und Ingenieurwissenschaften (F10) (13)
- Zentrum für Lehrentwicklung (4)
- Fakultät 08 / Institut für Fahrzeugtechnik (1)
- Fakultät 10 / Institut für Data Science, Engineering, and Analytics (1)
Der vorliegende Artikel beschreibt den hybriden Lehransatz im Modul Empirische Forschungsmethoden, das als Teil des Vertiefungsschwerpunktes Social Computing für Studierende im vierten Fachsemester im Bachelorstudiengang Medieninformatik an der Technischen Hochschule Köln (TH Köln) angeboten wird. Das Modul wurde im Sommersemester 2022 mit Anteilen von Online- und Präsenzlehre durchgeführt und anschließend von den Teilnehmenden mittels einer Umfrage evaluiert. Die Ergebnisse werden ebenfalls vorgestellt und zusammengefasst.
An der Technischen Hochschule Köln wird für Studierende des Informatik-Bachelors im vierten Semester das Modul „Berufspraxis Informatik“ angeboten, bei dem erfahrene Informatiker*innen ein Thema aus ihrem Berufsalltag vorstellen. Die einzelnen Veranstaltungen gliedern sich in einen Vortrags- und einen Workshopteil und werden vorranging offline, d. h. vor Ort, z. T. aber auch online angeboten. Um die aktive Beteiligung der Studierenden bei den Veranstaltungsterminen zu erhöhen, wurde eine Lehrintervention durchgeführt: Die Intervention wies einem Teil der Studierenden eine aktive Rolle z. B. als Moderator*in zu. In der anschließenden Datenerhebung wurden insb. hinderliche bzw. förderliche Faktoren für eine gelungene Aktivierung betrachtet. Neben der aktiven Rolle sowie dem persönlichen Interesse hatte einen großen Einfluss auf die Aktivierung, ob die Veranstaltung online oder offline durchgeführt wurde. In der Online-Variante waren es vorrangig technische und organisatorische Aspekte sowie Hemmnisse der Studierenden sich zu melden, die eine gelungene studentische Beteiligung behinderten.
Die Professionalisierung als Lehrkraft erfordert laut Baumert & Kunter (2013) Kompetenzen in den Bereichen Fachwissen und Fachdidaktik, verbunden mit hoher Reflexionsfähigkeit über eigenes Handeln. Oft erst im Referendariat findet die systematische Verzahnung von Theorie und Praxis statt. Im vorliegenden Beitrag wird beschrieben, wie in der Fachdidaktik Naturwissenschaft und Technik bereits in einem Bachelormodul eine Unterrichtssimulation als Prüfungsform eingesetzt wird. Dabei wird mit Portfolios und Peer-Feedback erprobt, wie sich die Selbstreflexion der Studierenden für ausgewählte fachwissenschaftliche und fachdidaktische Aspekte fördern lässt, um Grundlagen für eine lernendenzentrierte Haltung zu legen.
Der Beitrag behandelt ein zum Teil im nationalsozialistischen ductus gehaltenes Urteil des Reichsgerichts zur sog. „Führerscheinklausel“ in der Kraftfahrtversicherung aus dem Jahre 1941. Hintergrund dieses Urteil war eine verbrecherische „Anordnung“ von Heinrich Himmler, welche jüdischen Deutschen das Fahren von Kraftfahrzeugen verbot.
Der Verfasser kam auf dieses Urteil, als er im Archiv der BGH-Bibliothek die unveröffentlichten Urteile des Versicherungssenates des Reichsgerichtes zwischen 1939 bis 1945 durcharbeitete. Im Bundesarchiv konnte der Autor sodann die Gerichtsakte einsehen und ferner die Personalakten der entscheidenden Reichsgerichtsräte. Der Verfasser geht auch auf das Schicksal des später im Rahmen der Schoa ermordeten jüdischen Fahrers ein.
Dieses Urteil des Versicherungssenates belegt anschaulich, insbesondere unter Berücksichtigung der erfolgten Auswertung auch seiner übrigen Rechtsprechung, wie im Bereich des Zivilrechtes die Gerichte ihre Rechtsprechung auch nach der „Machtergreifung“ scheinbar normal weiterführten, teilweise auch Klage von Juden stattgaben und auch sind beim Versicherungssenat des Reichsgerichtet direkte politische Enflussnahmen nicht zu belegen. Aber wie die Auswertung des Verfassers rund um das „Führerscheinurteil“ belegt, war dies auch nicht notwendig, da denn Richter bewusst gewesen sein dürfte, wie sie einerseits formaljuristisch „richtig“ entscheiden, anderseits sich gegenüber den nationalsozialistischen Machthabers nicht angreifbar machen.
Unternehmen sehen sich üblicherweise den unterschiedlichsten operativen und strategischen Risiken ausgesetzt. Daher ist das Risikoportfolio eines Unternehmens aus Sicht des betriebswirtschaftlichen Risikomanagement i.d.R. sehr inhomogen bezüglich der verwendeten Verteilungsmodelle. Neben der Bewertung der Einzelrisiken ist es die Aufgabe des quantitativen Risikomanagements, alle Einzelrisiken in einer Risikokennzahl (z.B. Value at Risk oder Expected Shortfall) zu aggregieren. Dazu werden Szenarien (mit einer Monte-Carlo-Simulation) simuliert, so dass die Verteilung des Gesamtrisikos mit Risikokennzahlen aggregiert und analysiert werden kann. Dabei muss zusätzlich die Abhängigkeitsstruktur der Einzelrisiken modelliert werden. Ein möglicher Ansatz zur Modellierung der Abhängigkeitsstruktur ist die Vorgabe einer Korrelationsmatrix. Der vorliegende Artikel beschäftigt anhand von Beispielen zum einen mit Konzepten und Methoden einer solchen Modellierung und zum anderen mit den Schwierigkeiten, die damit verbunden sind. Es zeigt sich, dass man bei der Wahl einer Korrelationsmatrix verschiedene Einschränkungen zu beachten hat. Ferner kann es zu einer vorgegebenen Korrelationsmatrix mehrere passende gemeinsame Verteilungen der Einzelrisken geben. Dies hat zur Folge, dass die Aggregation der Einzelrisiken in einer Risikokennzahl aus mathematischer Sicht nicht eindeutig ist.
Die COVID-19-Pandemie hat die akademische Lehre vor methodisch-didaktische Herausforderungen gestellt. Da von einer künftigen verstärkten Ausrichtung auf digitale Lehr- und Lernprozesse auszugehen ist, wurde mit der Dualen Hochschule Baden-Württemberg als Erhebungskontext eine Skala zur Evaluation digitaler Lehre entwickelt. Die angenommene Faktorenstruktur entlang der vier Prämissen erfolgreicher Online-Sozialisation (Technischer Zugang, Autonomie, Kompetenz, Soziale Eingebundenheit) konnte nicht bestätigt werden; vielmehr deutet das Ergebnis auf ein Zwei-Faktoren-Modell hin, das sich aus der digitalen Lernautonomie und dem digitalitätsbezogenen Kompetenzerleben zusammensetzt. Als Erklärungen werden die Differenzierungsfähigkeit der Studierenden sowie Entfremdungstendenzen im Zeichen von Distant Socializing diskutiert.
Markov-Ketten haben bei der Modellierung von ökonomischen Sachverhalten eine Vielzahl von Anwendungen. In den Wirtschaftswissenschaften steht oft ein Portfolio von Markov -Ketten im Mittelpunkt des Interesses, z.B. das Kreditportfolio einer Bank oder das Vertragsportfolio einer Versicherung. In den meisten Modellen wird dabei die stochastische Unabhängigkeit der unterschiedlichen Markov-Ketten vorausgesetzt. In der vorliegenden Arbeit wird ein Modell zur Berücksichtigung einer Abhängigkeitsstruktur in einem solchen Portfolio vorgestellt. Die Abhängigkeiten werden dabei mit einer Familie von Copulas modelliert und werden bei den Übergangsmatrizen berücksichtigt.
In den Wirtschaftswissenschaften werden Risiken häufig mit dichotomen Zufallsvariablen modelliert. In der vorliegenden Arbeit wird an Fallbeispielen untersucht, unter welchen Bedingungen für das Gesamtrisiko eines inhomogenen Portfolios von stochastisch unabhängigen dichotomen Risiken näherungsweise von einer Normalverteilung ausgegangen werden kann. Die Normalverteilung ergibt sich aus dem zentralen Grenzwert. Die Approximation mit der Normalverteilung wird dabei auch mit der Näherung durch eine zusammengesetzte Poisson-Verteilung verglichen.
Benchmark experiments are required to test, compare, tune, and understand optimization algorithms. Ideally, benchmark problems closely reflect real-world problem behavior. Yet, real-world problems are not always readily available for benchmarking. For example, evaluation costs may be too high, or resources are unavailable (e.g., software or equipment). As a solution, data from previous evaluations can be used to train surrogate models which are then used for benchmarking. The goal is to generate test functions on which the performance of an algorithm is similar to that on the real-world objective function. However, predictions from data-driven models tend to be smoother than the ground-truth from which the training data is derived. This is especially problematic when the training data becomes sparse. The resulting benchmarks may not reflect the landscape features of the ground-truth, are too easy, and may lead to biased conclusions.
To resolve this, we use simulation of Gaussian processes instead of estimation (or prediction). This retains the covariance properties estimated during model training. While previous research suggested a decomposition-based approach for a small-scale, discrete problem, we show that the spectral simulation method enables simulation for continuous optimization problems. In a set of experiments with an artificial ground-truth, we demonstrate that this yields more accurate benchmarks than simply predicting with the Gaussian process model.
An important class of black-box optimization problems relies on using simulations to assess the quality of a given candidate solution. Solving such problems can be computationally expensive because each simulation is very time-consuming. We present an approach to mitigate this problem by distinguishing two factors of computational cost: the number of trials and the time needed to execute the trials. Our approach tries to keep down the number of trials by using Bayesian optimization (BO) –known to be sample efficient– and reducing wall-clock times by parallel execution of trials. We compare the performance of four parallelization methods and two model-free alternatives. Each method is evaluated on all 24 objective functions of the Black-Box-Optimization- Benchmarking (BBOB) test suite in their five, ten, and 20-dimensional versions. Additionally, their performance is investigated on six test cases in robot learning. The results show that parallelized BO outperforms the state-of-the-art CMA-ES on the BBOB test functions, especially for higher dimensions. On the robot learning tasks, the differences are less clear, but the data do support parallelized BO as the ‘best guess’, winning on some cases and never losing.
This survey compiles ideas and recommendations from more than a dozen researchers with different backgrounds and from different institutes around the world. Promoting best practice in benchmarking is its main goal. The article discusses eight essential topics in benchmarking: clearly stated goals, well- specified problems, suitable algorithms, adequate performance measures, thoughtful analysis, effective and efficient designs, comprehensible presentations, and guaranteed reproducibility. The final goal is to provide well-accepted guidelines (rules) that might be useful for authors and reviewers. As benchmarking in optimization is an active and evolving field of research this manuscript is meant to co-evolve over time by means of periodic updates.
Die Risikowahrnehmung von Bürgern und Verbrauchern weicht aufgrund von psychologischen Verzerrungseffekten in vielen Fällen deutlich von den realen Risiken ab, was zu „irrationalen“ Entscheidungen und ungeeignetem Vorsorgen und Versichern führen kann. Ziel der Studie ist es, solche Abweichungen in der Wahrnehmung von alltäglichen Risiken in der deutschen Bevölkerung aufzuzeigen. Im Wege einer empirischen Untersuchung wurde daher repräsentativ erhoben, wie unterschiedliche Risiken aus den drei Lebensbereichen „Auto und Mobilität“, „Eigentum, Beruf und Familie“ sowie „Gesundheit und Leben“ in der Bevölkerung eingeschätzt werden. Der subjektiven Risikowahrnehmung werden dann die entsprechenden statistischen Eintrittswahrscheinlichkeiten gegenüber gestellt.
Im Ergebnis zeigt sich, dass die Wahrscheinlichkeit seltener Ereignissemeist überschätzt wird. Das gilt wiederum insbesondere für „medienwirksame“ Ereignisse wie tödliche Verkehrsunfälle oder die Gefahr durch Terroranschläge. Häufigere Ereignisse werden dagegen eher unterschätzt. Neben Sachschäden oder Eigentumsdelikten gilt dies insbesondere für Brand-und Leitungswasserschäden. Besonders auffällig ist zudem die Unterschätzung der Häufigkeit von Rechtsfällen. Bezogen auf die eigene Person im Vergleich zur Betroffenheit in der Bevölkerung, werden Terrorgefahren, tödliche Verkehrsunfälle und Computerkriminalität als besonders hoch eingeschätzt. Kontakt mit dem Gesetz –sei es ein Verlust der Fahrerlaubnis, einer Straftat verdächtigt zu werden oder in einen zivilen Rechtsstreit verwickelt zu werden, betrifft hingegen eher die Bevölkerung allgemein und damit „die Anderen“. Auch Erfahrungen im persönlichen Umfeld spielen eine wichtige Rolle, indem die eigene Gefährdung als deutlich höher eingeschätzt wird. Das gilt in besonderem Maße für Ereignisse, die ansonsten als sehr unwahrscheinlich angesehen werden (z.B. tödlicher Flugzeugunfall, tödliches Gewaltverbrechen, Straftatverdacht), aber auch für Berufsunfähigkeits-sowie Krankheitsrisiken.
In der vorliegenden Arbeit wird eine Cantelli-Zusage mithilfe einer bewerteten inhomogenen Markov-Kette modelliert. Dabei wird der Barwert des zukünftigen Zahlungsstroms als Zufallsvariable aufgefasst. Betrachtet man nur den Erwartungswert des Barwerts, so ergeben sich die für eine Cantelli-Zusage üblichen Ergebnisse. Das bedeutet, dass in dem Modell auf einen Zustand verzichtet werden kann. Dies gilt aber nicht für Streuungs- und Risikomaße.
This paper introduces CAAI, a novel cognitive architecture for artificial intelligence in cyber-physical production systems. The goal of the architecture is to reduce the implementation effort for the usage of artificial intelligence algorithms. The core of the CAAI is a cognitive module that processes declarative goals of the user, selects suitable models and algorithms, and creates a configuration for the execution of a processing pipeline on a big data platform. Constant observation and evaluation against performance criteria assess the performance of pipelines for many and varying use cases. Based on these evaluations, the pipelines are automatically adapted if necessary. The modular design with well-defined interfaces enables the reusability and extensibility of pipeline components. A big data platform implements this modular design supported by technologies such as Docker, Kubernetes, and Kafka for virtualization and orchestration of the individual components and their communication. The implementation of the architecture is evaluated using a real-world use case.
Hochschulen initiieren und fördern immer stärker das unternehmerische Denken und Handeln ihrer Studierenden und tragen maßgeblich zu ihrer Qualifizierung als Gründerinnen und Gründer bei. Entrepreneurship Education sowie die Bereitstellung von Einrichtungen und Angeboten für junge Gründerinnen und Gründer spielen eine zentrale Rolle und sollen Innovationen als wissensbasierten Output fördern. Die vorliegende Untersuchung geht der Fragestellung nach, wie Hochschulen am Beispiel der Technischen Hochschule Köln – kurz TH Köln – ihre Studierenden unternehmerische Kompetenzen vermitteln und sie in Bezug auf Gründungsaktivitäten sensibilisieren, mobilisieren und unterstützen können, um so eine Entrepreneruship-Kultur im Zeitablauf zu entwickeln und zu etablieren. Sie bezieht zwei empirische Studien mit ein: eine aktuelle Befragung der Studierenden aus dem Jahre 2019 sowie eine Befragung aus dem Jahre 2016. So lassen sich aktuelle sowie im Zeitablauf vergleichende Aussagen ableiten.
Mit dem Betriebsrentenstärkungsgesetz (BRSG) wurde den Tarifvertragsparteien erstmals die Vereinbarung reiner Beitragszusagen ermöglicht. Hierbei sind Mindestleistungen oder Garantien seitens der Versorgungseinrichtungen ausdrücklich nicht erlaubt (Garantieverbot). Es ist jedoch möglich, ein kollektives Versorgungskapital zu bilden, das nicht dem einzelnen Sparer, sondern der Sparergemeinschaft insgesamt zur Verfügung steht. Mittels einer kollektiven Reserve als Puffer sollen Kapitalmarktschwankungen mit dem Ziel ausgeglichen werden, die Wertentwicklung des Versorgungskapitals für den einzelnen Sparer zu verstetigen. Aufbauend auf der bisherigen Forschung von GOECKE (2011, 2012, 2013a, 2013b und 2016) und GOECKE / MUDERS (2018) wird auf der Grundlage historischer Kapitalmarktdaten die Wirkungsweise des kollektiven Spar-modells im Zeitraum 1957-2017 getestet. Dabei wird neben Deutschland auch die USA betrachtet. Ferner werden zusätzlich inflationsbereinigte Werte herangezogen.
Im ersten Teil dieser Publikation wurde unter nicht allzu restriktiven Anforderungen hergeleitet, dass man auch für Versicherungen approximativ das mikroökonomische Produktionsmodell anwenden kann. Dies liefert eine andere Sichtweise im Hinblick auf die Unternehmenssteuerung. In diesem zweiten Teil werden weitere Anwendungen dieses Modells diskutiert.
A pension system is resilient if it able to absorb external (temporal) shocks and if it is able to adapt to (longterm) shifts of the socio-economic environment. Defined benefit (DB) and defined contribution pension plans behave contrastingly with respect to capital market shocks and shifts: while DB-plan benefits are not affected by external shocks they totally lack adaptability with respect to fundamental changes; DC-plans automatically adjust to a changing environment but any external shock has a direct impact on the (expected) pensions. By adding a collective component to DC-plans one can make these collective DC (CDC)-plans shock absorbing - at least to a certain degree. In our CDC pension model we build a collective reserve of assets that serves as a buffer to capital market shocks, e.g. stock market crashes. The idea is to transfer money from the collective reserve to the individual pension accounts whenever capital markets slump and to feed the collective reserve whenever capital market are booming. This mechanism is particular valuable for age cohorts that are close to retirement. It is clear that withdrawing assets from or adding assets to the collective reserve is essentially a transfer of assets between the age cohorts. In our near reality model we investigate the effect of stock market shocks and interest rate (and mortality) shifts on a CDC- pension system. We are particularly interested in the question, to what extend a CDC-pension system is actually able to absorb shocks and whether the intergenerational transfer of assets via the collective reserve can be regarded as fair.
The availability of several CPU cores on current computers enables
parallelization and increases the computational power significantly.
Optimization algorithms have to be adapted to exploit these highly
parallelized systems and evaluate multiple candidate solutions in
each iteration. This issue is especially challenging for expensive
optimization problems, where surrogate models are employed to
reduce the load of objective function evaluations.
This paper compares different approaches for surrogate modelbased
optimization in parallel environments. Additionally, an easy
to use method, which was developed for an industrial project, is
proposed. All described algorithms are tested with a variety of
standard benchmark functions. Furthermore, they are applied to
a real-world engineering problem, the electrostatic precipitator
problem. Expensive computational fluid dynamics simulations are
required to estimate the performance of the precipitator. The task
is to optimize a gas-distribution system so that a desired velocity
distribution is achieved for the gas flow throughout the precipitator.
The vast amount of possible configurations leads to a complex
discrete valued optimization problem. The experiments indicate
that a hybrid approach works best, which proposes candidate solutions
based on different surrogate model-based infill criteria and
evolutionary operators.