Refine
Year of publication
Document Type
- Working Paper (87) (remove)
Has Fulltext
- yes (87)
Keywords
- Versicherungswirtschaft (16)
- Hochschuldidaktik (9)
- Versicherungsmathematik (8)
- Solvency II (7)
- Barwert (5)
- Bewertete Markov-Kette (5)
- Markov-Ketten (5)
- Risikomanagement (5)
- Rückversicherung (5)
- Benchmarking (4)
Institute
- Fakultät 04 / Institut für Versicherungswesen (41)
- Fakultät 04 / Schmalenbach Institut für Wirtschaftswissenschaften (15)
- Fakultät für Informatik und Ingenieurwissenschaften (F10) (13)
- Zentrum für Lehrentwicklung (11)
- Fakultät 10 / Institut für Data Science, Engineering, and Analytics (2)
- Fakultät 08 / Institut für Fahrzeugtechnik (1)
Die Professionalisierung als Lehrkraft erfordert laut Baumert & Kunter (2013) Kompetenzen in den Bereichen Fachwissen und Fachdidaktik, verbunden mit hoher Reflexionsfähigkeit über eigenes Handeln. Oft erst im Referendariat findet die systematische Verzahnung von Theorie und Praxis statt. Im vorliegenden Beitrag wird beschrieben, wie in der Fachdidaktik Naturwissenschaft und Technik bereits in einem Bachelormodul eine Unterrichtssimulation als Prüfungsform eingesetzt wird. Dabei wird mit Portfolios und Peer-Feedback erprobt, wie sich die Selbstreflexion der Studierenden für ausgewählte fachwissenschaftliche und fachdidaktische Aspekte fördern lässt, um Grundlagen für eine lernendenzentrierte Haltung zu legen.
In diesem Artikel schlagen wir die Verwendung eines genetischen Algorithmus (GA) zur Kalibrierung eines Stochastischen Prozesses an eine empirische Dichte von Aktienrenditen vor. Anhand des Heston Models zeigen wir wie eine solche Kalibrierung durchgeführt werden kann. Neben des Pseudocodes für einen einfachen aber leistungsfähigen GA präsentieren wir zudem auch Kalibrierungs-ergebnisse für den DAX und den S&P 500.
Die Arbeit beschreibt die Entwicklung und Verbreitung künstlicher Intelligenz (KI) und die damit verbundenen Herausforderungen und Chancen. Es wird hervorgehoben, dass trotz des offensichtlichen Nutzens von KI, Bedenken hinsichtlich unerwünschter Nebenwirkungen durch fehlerhafte oder missbräuchliche Anwendungen bestehen. Um diese Herausforderungen zu bewältigen, wird ein Ansatz vorgeschlagen, der als “konviviale künstliche Intelligenz” bezeichnet wird. Dieser Ansatz zielt auf ein harmonisches Zusammenspiel zwischen KI und Mensch ab und betont die Notwendigkeit einer menschenzentrierten Gestaltung bei der Entwicklung und Implementierung von KI-Modellen.
In einer Veranstaltung sitzen viele Studierende, in einer nächsten auf einmal deutlich weniger. Woran liegt das? Und weiß man, ob ein*e Student*in regelmäßig kommt oder nicht? Ist die Anwesenheit überhaupt von Relevanz? Für Lehrende stehen über das eigene Modul hinaus häufig nur geringe Informationen zur Verfügung, wann, in welchen anderen Modulen und mit welchem Aufwand Studierende eines Semesters mit Selbststudienaufgaben oder begleitenden Prüfungsleistungen wie z. B. Hausarbeiten, Praktika, Präsentationen, Lernkontrollen usw. beschäftigt werden. Aus Sicht der jeweiligen Lehrenden sind diese didaktischen Mittel gut begründet, können jedoch insbesondere dann zu Spitzen in der studentischen Workload führen, wenn keine organisatorische Abstimmung mit Kolleg*innen erfolgt. Diskussionen über die richtige Lehrorganisation und das geeignete Maß an Lernanforderungen bleiben erfahrungsgemäß in Hochschulgremien häufig ohne klares Ergebnis, so dass ein Wunsch nach Objektivierung der subjektiven Meinungen entsteht, der speziell eine Abstimmung der in das Lernen investierten Zeit mit den von den Modulen gestellten Lernanforderungen betrifft. Derartige Fragen waren die Initialzündung zum nachfolgend beschriebenen Projekt, das noch nicht vollumfänglich abgeschlossen ist.
Die Erfassung der von Studierenden in ihr Lernen investierten Zeit und die hieraus abzuleitenden Erkenntnisse sind seit den ZEITLast-Untersuchungen von Schulmeister & Metzger (2011) verbreitet. Jedoch macht es einen Unterschied, ob man einem Kreis von in einem Studiengang lehrenden Professor*innen die validen Ergebnisse einer Studie vorträgt oder ob eine Untersuchung im eigenen Studiengang durchgeführt und somit ‚am eigenen Leib‘ erfahren wird, um dann auf der Basis der Ergebnisse gemeinsam die Zukunft neu zu gestalten. Jedoch, wie bringt man diesen Prozess in Gang?
Der Beitrag zeigt zentrale Elemente eines im Studiengang B.Eng. Fahrzeugtechnik der TH-Köln durchgeführten Lehrentwicklungsvorhabens, insbesondere die gewählte Strategie zur Legitimierung einer Workloadstudie (Faßbender et al., 2018), die formulierten Forschungsfragen, die Methodik, die bisher gewonnenen Ergebnisse und Erkenntnisse sowie ein Fazit mit einem Ausblick.
This paper introduces CAAI, a novel cognitive architecture for artificial intelligence in cyber-physical production systems. The goal of the architecture is to reduce the implementation effort for the usage of artificial intelligence algorithms. The core of the CAAI is a cognitive module that processes declarative goals of the user, selects suitable models and algorithms, and creates a configuration for the execution of a processing pipeline on a big data platform. Constant observation and evaluation against performance criteria assess the performance of pipelines for many and varying use cases. Based on these evaluations, the pipelines are automatically adapted if necessary. The modular design with well-defined interfaces enables the reusability and extensibility of pipeline components. A big data platform implements this modular design supported by technologies such as Docker, Kubernetes, and Kafka for virtualization and orchestration of the individual components and their communication. The implementation of the architecture is evaluated using a real-world use case.
When researchers and practitioners in the field of
computational intelligence are confronted with real-world
problems, the question arises which method is the best to
apply. Nowadays, there are several, well established test
suites and well known artificial benchmark functions
available.
However, relevance and applicability of these methods to
real-world problems remains an open question in many
situations. Furthermore, the generalizability of these
methods cannot be taken for granted.
This paper describes a data-driven approach for the
generation of test instances, which is based on
real-world data. The test instance generation uses
data-preprocessing, feature extraction, modeling, and
parameterization. We apply this methodology on a classical
design of experiment real-world project and generate test
instances for benchmarking, e.g. design methods, surrogate
techniques, and optimization algorithms. While most
available results of methods applied on real-world
problems lack availability of the data for comparison,
our future goal is to create a toolbox covering multiple
data sets of real-world projects to provide a test
function generator to the research community.
Multiagentensysteme sind eine „wissensverarbeitende Technologie“, die im Fall von CESSAR mit in einer Ontologie abgelegten semantischen Objektbeschreibungen arbeitet und die z. B. zur Suche und Vernetzung von Inhalten zu zuvor bestimmten operativen Zwecken verwendet werden kann. Ziel des iC-RFID-Projektes war die Entwicklung und Demonstration eines durchgängig „end-to-end“ RFID-gestützten Dienstleistungsprozesses im Luftverkehrscatering. Im Ergebnis zeigen die betriebswirtschaftlichen Studien zu CESSAR eine Reihe konkreter Nutzenpotenziale auf.
Social Media werden mittlerweile auch von vielen deutschen Versicherern für die Kommunikation mit ihren Kunden und Interessenten eingesetzt. Die Intensität und der Erfolg unterscheiden sich jedoch signifikant voneinander. Inhalt dieses Artikel ist ein Reifegradmodell für die deutsche Versicherungswirtschaft, das auf Basis belastbarer Key Performance Indikatoren die Social Media-Reife eines Versicherungsunternehmens in Form eines Ratings bemisst. Weiterhin wird eine erste Einschätzung des Reifegrades der deutschen Service-, Direkt- und öffentlichen Versicherer geboten, das auf den Einzelratings von 52 Unternehmen beruht.
Die Risikowahrnehmung von Bürgern und Verbrauchern weicht aufgrund von psychologischen Verzerrungseffekten in vielen Fällen deutlich von den realen Risiken ab, was zu „irrationalen“ Entscheidungen und ungeeignetem Vorsorgen und Versichern führen kann. Ziel der Studie ist es, solche Abweichungen in der Wahrnehmung von alltäglichen Risiken in der deutschen Bevölkerung aufzuzeigen. Im Wege einer empirischen Untersuchung wurde daher repräsentativ erhoben, wie unterschiedliche Risiken aus den drei Lebensbereichen „Auto und Mobilität“, „Eigentum, Beruf und Familie“ sowie „Gesundheit und Leben“ in der Bevölkerung eingeschätzt werden. Der subjektiven Risikowahrnehmung werden dann die entsprechenden statistischen Eintrittswahrscheinlichkeiten gegenüber gestellt.
Im Ergebnis zeigt sich, dass die Wahrscheinlichkeit seltener Ereignissemeist überschätzt wird. Das gilt wiederum insbesondere für „medienwirksame“ Ereignisse wie tödliche Verkehrsunfälle oder die Gefahr durch Terroranschläge. Häufigere Ereignisse werden dagegen eher unterschätzt. Neben Sachschäden oder Eigentumsdelikten gilt dies insbesondere für Brand-und Leitungswasserschäden. Besonders auffällig ist zudem die Unterschätzung der Häufigkeit von Rechtsfällen. Bezogen auf die eigene Person im Vergleich zur Betroffenheit in der Bevölkerung, werden Terrorgefahren, tödliche Verkehrsunfälle und Computerkriminalität als besonders hoch eingeschätzt. Kontakt mit dem Gesetz –sei es ein Verlust der Fahrerlaubnis, einer Straftat verdächtigt zu werden oder in einen zivilen Rechtsstreit verwickelt zu werden, betrifft hingegen eher die Bevölkerung allgemein und damit „die Anderen“. Auch Erfahrungen im persönlichen Umfeld spielen eine wichtige Rolle, indem die eigene Gefährdung als deutlich höher eingeschätzt wird. Das gilt in besonderem Maße für Ereignisse, die ansonsten als sehr unwahrscheinlich angesehen werden (z.B. tödlicher Flugzeugunfall, tödliches Gewaltverbrechen, Straftatverdacht), aber auch für Berufsunfähigkeits-sowie Krankheitsrisiken.
Beim kollektiven Sparen teilt sich das gesamte Sparvermögen in zwei Teile: Zum einen in die Summe der individuellen Sparguthaben und zum anderen in ein kollektives Sparvermögen (kollektive Reserve), das nicht dem einzelnen Sparer zuzurechnen ist, sondern der Gesamtheit aller Sparer. Die kollektive Reserve wird dafür verwendet, kurzfristige Wertschwankungen des angelegten Sparver-mögens auszugleichen: Bei einer überdurchschnittlich guten Performance des Gesamtvermögens wird ein Teil der Kapitalerträge der kollektiven Reserve zugeführt. Bei einer schlechten Performance werden Teile der Reserve dafür verwendet, eine kontinuierliche Wertentwicklung der individuellen Guthaben sicher zu stellen. Durch den Auf- und Abbau der kollektiven Reserve werden also die Schwankungen am Kapitalmarkt ausgeglichen. In [Goecke 2011] wurde ein zeitstetiges Modell für den kollektiven Sparprozess vorgestellt und analysiert. In [Goecke 2012] wurde dann das Modell anhand von Monte-Carlo Simulationen getestet. In einem weiteren Schritt soll in der hier vorliegenden Arbeit ein Backtesting durchgeführt werden. Wir untersuchen, wie das Modell des kollektiven Sparens unter Zugrundelegung realer Kapitalmarktdaten sich in der Vergangenheit verhalten hätte. Hierbei vergleichen wir das Modell des kollek- tiven Sparens mit nicht-kollektiven Anlagestrategien.