Refine
Year of publication
Document Type
- Working Paper (86) (remove)
Has Fulltext
- yes (86)
Keywords
- Versicherungswirtschaft (16)
- Hochschuldidaktik (9)
- Versicherungsmathematik (8)
- Solvency II (7)
- Barwert (5)
- Bewertete Markov-Kette (5)
- Markov-Ketten (5)
- Risikomanagement (5)
- Rückversicherung (5)
- Benchmarking (4)
Institute
- Fakultät 04 / Institut für Versicherungswesen (40)
- Fakultät 04 / Schmalenbach Institut für Wirtschaftswissenschaften (15)
- Fakultät für Informatik und Ingenieurwissenschaften (F10) (13)
- Zentrum für Lehrentwicklung (11)
- Fakultät 10 / Institut für Data Science, Engineering, and Analytics (2)
- Fakultät 08 / Institut für Fahrzeugtechnik (1)
Der vorliegende Artikel beschreibt den hybriden Lehransatz im Modul Empirische Forschungsmethoden, das als Teil des Vertiefungsschwerpunktes Social Computing für Studierende im vierten Fachsemester im Bachelorstudiengang Medieninformatik an der Technischen Hochschule Köln (TH Köln) angeboten wird. Das Modul wurde im Sommersemester 2022 mit Anteilen von Online- und Präsenzlehre durchgeführt und anschließend von den Teilnehmenden mittels einer Umfrage evaluiert. Die Ergebnisse werden ebenfalls vorgestellt und zusammengefasst.
An der Technischen Hochschule Köln wird für Studierende des Informatik-Bachelors im vierten Semester das Modul „Berufspraxis Informatik“ angeboten, bei dem erfahrene Informatiker*innen ein Thema aus ihrem Berufsalltag vorstellen. Die einzelnen Veranstaltungen gliedern sich in einen Vortrags- und einen Workshopteil und werden vorranging offline, d. h. vor Ort, z. T. aber auch online angeboten. Um die aktive Beteiligung der Studierenden bei den Veranstaltungsterminen zu erhöhen, wurde eine Lehrintervention durchgeführt: Die Intervention wies einem Teil der Studierenden eine aktive Rolle z. B. als Moderator*in zu. In der anschließenden Datenerhebung wurden insb. hinderliche bzw. förderliche Faktoren für eine gelungene Aktivierung betrachtet. Neben der aktiven Rolle sowie dem persönlichen Interesse hatte einen großen Einfluss auf die Aktivierung, ob die Veranstaltung online oder offline durchgeführt wurde. In der Online-Variante waren es vorrangig technische und organisatorische Aspekte sowie Hemmnisse der Studierenden sich zu melden, die eine gelungene studentische Beteiligung behinderten.
Die Professionalisierung als Lehrkraft erfordert laut Baumert & Kunter (2013) Kompetenzen in den Bereichen Fachwissen und Fachdidaktik, verbunden mit hoher Reflexionsfähigkeit über eigenes Handeln. Oft erst im Referendariat findet die systematische Verzahnung von Theorie und Praxis statt. Im vorliegenden Beitrag wird beschrieben, wie in der Fachdidaktik Naturwissenschaft und Technik bereits in einem Bachelormodul eine Unterrichtssimulation als Prüfungsform eingesetzt wird. Dabei wird mit Portfolios und Peer-Feedback erprobt, wie sich die Selbstreflexion der Studierenden für ausgewählte fachwissenschaftliche und fachdidaktische Aspekte fördern lässt, um Grundlagen für eine lernendenzentrierte Haltung zu legen.
Der Beitrag behandelt ein zum Teil im nationalsozialistischen ductus gehaltenes Urteil des Reichsgerichts zur sog. „Führerscheinklausel“ in der Kraftfahrtversicherung aus dem Jahre 1941. Hintergrund dieses Urteil war eine verbrecherische „Anordnung“ von Heinrich Himmler, welche jüdischen Deutschen das Fahren von Kraftfahrzeugen verbot.
Der Verfasser kam auf dieses Urteil, als er im Archiv der BGH-Bibliothek die unveröffentlichten Urteile des Versicherungssenates des Reichsgerichtes zwischen 1939 bis 1945 durcharbeitete. Im Bundesarchiv konnte der Autor sodann die Gerichtsakte einsehen und ferner die Personalakten der entscheidenden Reichsgerichtsräte. Der Verfasser geht auch auf das Schicksal des später im Rahmen der Schoa ermordeten jüdischen Fahrers ein.
Dieses Urteil des Versicherungssenates belegt anschaulich, insbesondere unter Berücksichtigung der erfolgten Auswertung auch seiner übrigen Rechtsprechung, wie im Bereich des Zivilrechtes die Gerichte ihre Rechtsprechung auch nach der „Machtergreifung“ scheinbar normal weiterführten, teilweise auch Klage von Juden stattgaben und auch sind beim Versicherungssenat des Reichsgerichtet direkte politische Enflussnahmen nicht zu belegen. Aber wie die Auswertung des Verfassers rund um das „Führerscheinurteil“ belegt, war dies auch nicht notwendig, da denn Richter bewusst gewesen sein dürfte, wie sie einerseits formaljuristisch „richtig“ entscheiden, anderseits sich gegenüber den nationalsozialistischen Machthabers nicht angreifbar machen.
Unternehmen sehen sich üblicherweise den unterschiedlichsten operativen und strategischen Risiken ausgesetzt. Daher ist das Risikoportfolio eines Unternehmens aus Sicht des betriebswirtschaftlichen Risikomanagement i.d.R. sehr inhomogen bezüglich der verwendeten Verteilungsmodelle. Neben der Bewertung der Einzelrisiken ist es die Aufgabe des quantitativen Risikomanagements, alle Einzelrisiken in einer Risikokennzahl (z.B. Value at Risk oder Expected Shortfall) zu aggregieren. Dazu werden Szenarien (mit einer Monte-Carlo-Simulation) simuliert, so dass die Verteilung des Gesamtrisikos mit Risikokennzahlen aggregiert und analysiert werden kann. Dabei muss zusätzlich die Abhängigkeitsstruktur der Einzelrisiken modelliert werden. Ein möglicher Ansatz zur Modellierung der Abhängigkeitsstruktur ist die Vorgabe einer Korrelationsmatrix. Der vorliegende Artikel beschäftigt anhand von Beispielen zum einen mit Konzepten und Methoden einer solchen Modellierung und zum anderen mit den Schwierigkeiten, die damit verbunden sind. Es zeigt sich, dass man bei der Wahl einer Korrelationsmatrix verschiedene Einschränkungen zu beachten hat. Ferner kann es zu einer vorgegebenen Korrelationsmatrix mehrere passende gemeinsame Verteilungen der Einzelrisken geben. Dies hat zur Folge, dass die Aggregation der Einzelrisiken in einer Risikokennzahl aus mathematischer Sicht nicht eindeutig ist.
Die Arbeit beschreibt die Entwicklung und Verbreitung künstlicher Intelligenz (KI) und die damit verbundenen Herausforderungen und Chancen. Es wird hervorgehoben, dass trotz des offensichtlichen Nutzens von KI, Bedenken hinsichtlich unerwünschter Nebenwirkungen durch fehlerhafte oder missbräuchliche Anwendungen bestehen. Um diese Herausforderungen zu bewältigen, wird ein Ansatz vorgeschlagen, der als “konviviale künstliche Intelligenz” bezeichnet wird. Dieser Ansatz zielt auf ein harmonisches Zusammenspiel zwischen KI und Mensch ab und betont die Notwendigkeit einer menschenzentrierten Gestaltung bei der Entwicklung und Implementierung von KI-Modellen.
In diesem Beitrag geht es um eine Forschungsarbeit, die im Rahmen eines lehrbezogenen Forschungs- und Entwicklungsprojekts während des Sommersemesters 2021 zur Zeit der COVID-19-Pandemie in einem Anfänger*innen-Übersetzungskurs und zwei Fortgeschrittenen-Übersetzungskursen des Bachelorstudiengangs Mehrsprachige Kommunikation durchgeführt wurde. In diesen Kursen wurde eine digitale Gruppenarbeit angeboten, die von den meisten Studierenden besser als erwartet angenommen wurde. Dabei stellte sich heraus, dass diese Form der Arbeit Studierende dazu motivieren kann, trotz verschiedener Standorte gemeinsam an einem Projekt zu arbeiten. Zudem wurde die Annahme bestätigt, dass mit fortschreitender Spezialisierung der Studierenden eine stärkere Aktivierung bei digitaler Gruppenarbeit festzustellen ist. Da die Studierenden größtenteils auch eine Verbesserung ihrer Übersetzungs- und Sozialkompetenz wahrnahmen und diese Lehrform als Abwechslung zur gewöhnlichen Vorgehensweise empfanden, kann digitale Gruppenarbeit in Übersetzungskursen als empfehlenswert gelten.
Die COVID-19-Pandemie hat die akademische Lehre vor methodisch-didaktische Herausforderungen gestellt. Da von einer künftigen verstärkten Ausrichtung auf digitale Lehr- und Lernprozesse auszugehen ist, wurde mit der Dualen Hochschule Baden-Württemberg als Erhebungskontext eine Skala zur Evaluation digitaler Lehre entwickelt. Die angenommene Faktorenstruktur entlang der vier Prämissen erfolgreicher Online-Sozialisation (Technischer Zugang, Autonomie, Kompetenz, Soziale Eingebundenheit) konnte nicht bestätigt werden; vielmehr deutet das Ergebnis auf ein Zwei-Faktoren-Modell hin, das sich aus der digitalen Lernautonomie und dem digitalitätsbezogenen Kompetenzerleben zusammensetzt. Als Erklärungen werden die Differenzierungsfähigkeit der Studierenden sowie Entfremdungstendenzen im Zeichen von Distant Socializing diskutiert.
Hochschulen spielen aufgrund ihrer Infrastruktur und ihrem Angebot an Entrepreneurship Education eine zentrale Rolle im Start-up-Ökosystem. Eine wichtige Herausforderung in der Hochschulkommunikation besteht darin, einen Kommunikationskanal zu finden, der aus Sicht der Studierenden Spaß macht und zu mehr Durchdringung der Themen Entrepreneurship und Gründung führt. Nur so können die Studierenden passgenau über bestehende Angebote informiert, zu ihrer Nutzung motiviert und ein Output in Form von mehr unternehmerischem Denken und Handeln sowie Gründungen generiert werden.
Gerade im Gründungskontext, wo spezifische Angebote einer kleinen, schon interessierten und gleichzeitig einer großen, potenziell interessierten Zielgruppe nähergebracht werden sollen, ist die Wahl der „richtigen“ Kommunikationsstrategie komplex. Beispielhaft für diese Herausforderung wird die Gründungsinitiative StartUpLab@TH Köln aus hochschulkommunikativer Sicht betrachtet und die Etablierung eines Instagram-Kanals geprüft.
Collective Defined Contribution Plans – Backtesting Based on German Capital Market Data 1950 - 2022
(2022)
Using historical capital market data for Germany (1950-2022) we analyze and compare (individual) defined contribution (IDC-) and collective defined contribution (CDC) pension plans. To this end we define simple asset liability management rules that govern a CDC pension plan and compare these to IDC-plans with the same asset allovation. Our main result is, that the CDC pension plans allow for a significant improvement of the risk return profile compared to individual pension plans. Hereby we consider different risk measures. This empirical study affirms the theoretical results based on stochastic CDC-models.
In diesem Beitrag wird ein auf die Lehre in einer Einführungsveranstaltung Statistik für Wirtschaftsingenieure zugeschnittenes digitales Lehrformat der klassischen Präsenzvorlesung aus früheren Jahren gegenübergestellt. Im Mittelpunkt steht der Vergleich der Prüfungsergebnisse verbunden mit der klassischen Vorlesung in den vier Studienjahren vor der COVID-19-Pandemie mit den Ergebnissen zur Online-Lehrveranstaltung des Studienjahres 2020/2021 − mit dem für die Autoren überraschenden Resultat, dass die Prüflinge unter den neuen Rahmenbedingungen signifikant besser abschnitten als in der Vergangenheit. Die Diskussion der empirischen Ergebnisse schließt Verbesserungspotentiale für künftige Präsenz-, Online- und Hybrid-Lehrveranstaltungen mit ein.
Der Fokus dieses Artikels liegt auf den zwischenmenschlichen Herausforderungen und Dynamiken, die dem Teamteaching, bspw. in Form eines Lehr-Duos in der Praxis immanent sind. Hierbei wiederum liegt der Schwerpunkt der Untersuchung auf einer lösungsorientierten Perspektive. Der Hypothese folgend, dass Wertschätzung ein elementarer Faktor interdisziplinärer Lehre ist, wird diese definitorisch, konzeptionell und theoretisch beleuchtet. Hier ergibt sich die Korrelation der professionellen und der persönlichen Ebene als wichtiges Merkmal der Wertschätzung im Teamteaching.
Ob Tweet, TikTok-Video oder Elevator Pitch – Informationen pointiert zu verdichten entwickelt sich zur Kunst. Das Format One Slide About (nachfolgend OSA) fordert Kursteilnehmer*innen auf, ein Thema oder eine wissenschaftliche Studie auf einem einzelnen Slide einer Präsentation zu verdichten und diesen den Kommiliton*innen in einem max. 180 Sekunden langen Vortrag vorzustellen. Dieses Format wurde in unterschiedlicher Umsetzung erprobt, mit den Teilnehmer*innen diskutiert und anschließend in Form einer quantitativen Befragung unter folgender Forschungsfragestellung evaluiert: Lässt sich mit dem Format One Slide About sowohl Informationskompetenz üben als auch eine Lehrveranstaltung inhaltlich ergänzen?
Markov-Ketten haben bei der Modellierung von ökonomischen Sachverhalten eine Vielzahl von Anwendungen. In den Wirtschaftswissenschaften steht oft ein Portfolio von Markov -Ketten im Mittelpunkt des Interesses, z.B. das Kreditportfolio einer Bank oder das Vertragsportfolio einer Versicherung. In den meisten Modellen wird dabei die stochastische Unabhängigkeit der unterschiedlichen Markov-Ketten vorausgesetzt. In der vorliegenden Arbeit wird ein Modell zur Berücksichtigung einer Abhängigkeitsstruktur in einem solchen Portfolio vorgestellt. Die Abhängigkeiten werden dabei mit einer Familie von Copulas modelliert und werden bei den Übergangsmatrizen berücksichtigt.
Ziel dieser innerinstitutionellen Studie ist es, herauszufinden, wie die didaktische Umsetzung des Forschenden Lernens (FL) gelingen kann. 24 Lehrende aus allen Fakultäten der TH Köln wurden dazu als Expert*innen für ihre Lehrveranstaltungen in einer qualitativen Interviewstudie befragt. Im Fokus standen dabei die Herausforderungen, Erfolgsfaktoren und Weiterentwicklungsideen mit diesem Lehrformat, die Lehrende für sich identifiziert haben. Die Auswertung des Datenmaterials erfolgte mittels Qualitativer Inhaltsanalyse nach Mayring (2010). Die Ergebnisse zeichnen ein Bild von Forschendem Lernen, das sich über alle Handlungsebenen von Studium und Lehre erstreckt – von (äußeren) Rahmenbedingungen wie z.B. der Kooperationen mit Dritten über hochschulweite Fragestellungen wie die nach der Prüfungsgestaltung bis hin zum konkreten Lehr- und Lerngeschehen. Diese Studie bietet der Hochschuldidaktik eine evidenzbasierte Grundlage für Weiterbildung und Beratung sowie Lehrenden einen Orientierungsrahmen, um FL mehrdimensional zu planen und umzusetzen.
In den Wirtschaftswissenschaften werden Risiken häufig mit dichotomen Zufallsvariablen modelliert. In der vorliegenden Arbeit wird an Fallbeispielen untersucht, unter welchen Bedingungen für das Gesamtrisiko eines inhomogenen Portfolios von stochastisch unabhängigen dichotomen Risiken näherungsweise von einer Normalverteilung ausgegangen werden kann. Die Normalverteilung ergibt sich aus dem zentralen Grenzwert. Die Approximation mit der Normalverteilung wird dabei auch mit der Näherung durch eine zusammengesetzte Poisson-Verteilung verglichen.
Der Beitrag zeigt, wie systemisches Coaching als lösungsorientiertes Beratungsverfahren in Arbeitsweltkontexten hilfreich sein kann, um Personen und Organisationen im Umgang mit Komplexität zu begleiten. In ingenieurwissenschaftlichen Kontexten eingesetzt, unterstützt Coaching (angehende) Ingenieur*innen dabei, ein ganzheitlich-systemisches Verständnis des digitalen Wandels zu entwickeln und zentrale Kompetenzen wie Reflexionsfähigkeit zu erwerben. Im ersten Teil werden Anforderungen an eine zukunftsfähige Ingenieur*innenausbildung und deren Umsetzung an der Fakultät für Anlagen, Energie- und Maschinensysteme der TH Köln sowie Arbeitsweisen und Grundannahmen systemischen Coachings vorgestellt. Die Wirksamkeit des Einsatzes von Coaching in der Lehre wird an der Fakultät begleitend erforscht. Dazu werden im zweiten Teil zunächst Herausforderungen beim Einsatz von Coaching im Hochschulkontext und mögliche Dilemmata für Coaches benannt. Im Anschluss werden die Ergebnisse zweier Studien vorgestellt, die den Einsatz von Projektcoaching und Leadership-Coaching in projektbasierten Modulen mit großen Teilnehmer*innenzahlen an der Fakultät untersuchen. Die Forschungsergebnisse stützen zum einen die Annahme, dass das hier konzipierte Coaching die Studierenden dabei begleitet, Metakompetenzen wie Reflexionsfähigkeit und Self-Awareness zu entwickeln. Zum anderen unterstreichen die Ergebnisse das Vorgehen der Fakultät, Kompetenzen nicht nur einmalig im Studium, sondern aufeinander aufbauend durchgängig zu trainieren. Der Beitrag schließt mit einem Ausblick für Praxis und Forschung. Die Konzepte sind anschlussfähig sowohl für den Einsatz in anderen Disziplinen als auch an Beratungskonzepte für Lehrende. Fazit ist, dass eine didaktische und curriculare Verankerung von Coaching Studierende dabei unterstützen kann, eine systemische Haltung zu entwickeln und sie damit auf den digitalen Wandel sowie zukünftige Führungsaufgaben vorbereitet.
Benchmark experiments are required to test, compare, tune, and understand optimization algorithms. Ideally, benchmark problems closely reflect real-world problem behavior. Yet, real-world problems are not always readily available for benchmarking. For example, evaluation costs may be too high, or resources are unavailable (e.g., software or equipment). As a solution, data from previous evaluations can be used to train surrogate models which are then used for benchmarking. The goal is to generate test functions on which the performance of an algorithm is similar to that on the real-world objective function. However, predictions from data-driven models tend to be smoother than the ground-truth from which the training data is derived. This is especially problematic when the training data becomes sparse. The resulting benchmarks may not reflect the landscape features of the ground-truth, are too easy, and may lead to biased conclusions.
To resolve this, we use simulation of Gaussian processes instead of estimation (or prediction). This retains the covariance properties estimated during model training. While previous research suggested a decomposition-based approach for a small-scale, discrete problem, we show that the spectral simulation method enables simulation for continuous optimization problems. In a set of experiments with an artificial ground-truth, we demonstrate that this yields more accurate benchmarks than simply predicting with the Gaussian process model.
An important class of black-box optimization problems relies on using simulations to assess the quality of a given candidate solution. Solving such problems can be computationally expensive because each simulation is very time-consuming. We present an approach to mitigate this problem by distinguishing two factors of computational cost: the number of trials and the time needed to execute the trials. Our approach tries to keep down the number of trials by using Bayesian optimization (BO) –known to be sample efficient– and reducing wall-clock times by parallel execution of trials. We compare the performance of four parallelization methods and two model-free alternatives. Each method is evaluated on all 24 objective functions of the Black-Box-Optimization- Benchmarking (BBOB) test suite in their five, ten, and 20-dimensional versions. Additionally, their performance is investigated on six test cases in robot learning. The results show that parallelized BO outperforms the state-of-the-art CMA-ES on the BBOB test functions, especially for higher dimensions. On the robot learning tasks, the differences are less clear, but the data do support parallelized BO as the ‘best guess’, winning on some cases and never losing.