Entwicklung einer Business Intelligence Referenzarchitektur im Kontext der Regulatorik für Banken und Versicherungen

von Nils Keller
Zustand: Neu
€ 59,99
inklusive MwSt. - GRATIS LIEFERUNG
Nils Keller Entwicklung einer Business Intelligence Referenzarchitektur im Kontext der Regulatorik für Banken und Versicherungen
Nils Keller - Entwicklung einer Business Intelligence Referenzarchitektur im Kontext der Regulatorik für Banken und Versicherungen

Dir gefällt dieses Produkt? Sag's weiter!

€ 59,99 inkl. USt.
Nur noch 1 Stück verfügbar Nur noch 1 Stück verfügbar
Lieferung: zwischen Dienstag, 10. August 2021 und Donnerstag, 12. August 2021
Verkauf & Versand: Dodax EU

Andere Kaufoptionen

1 Angebot für € 59,99

Verkauft von Dodax

€ 59,99 inkl. USt.
Zustand: Neu
Kostenloser Versand
Lieferung: zwischen Dienstag, 10. August 2021 und Donnerstag, 12. August 2021
Andere Kaufoptionen anzeigen

Beschreibung

In dieser Studie wird eine Business Intelligence-Referenzarchitektur für Banken und Versicherungen entwickelt, die den aktuellen Regularien von Finanzdienstleistungsunternehmen gerecht wird. Die Regularien für Banken und Versicherungen sind aufgrund der Finanz-/Wirtschaftskrise im letzten Jahrzehnt stark gestiegen. Die Architekturen der Unternehmen müssen entsprechend den Anforderungen ausgelegt sein, die aktuell und in Zukunft gelten. Solvency II fordert die Übermittelung von ca. 5000 Kennzahlen an die Aufsichtsbehörden. Werden diese nicht rechtzeitig aufgrund nicht intakter IT-Architekturen übermittelt, kann schlimmstenfalls die Versicherungslizenz entzogen werden. Die Anforderungen ergeben sich aus den aktuellen Regularien wie den Grundsätzen für die effektive Aggregation von Risikodaten und die Risikoberichtserstattung (BCBS239). Diese Studie analysiert die einzelnen Anforderungen, die sich aus den Gesetzen und den Verlautbarungen ergeben und fasst diese zusammen. Aus den gewonnenen Ergebnissen der Anforderungsanalyse wird eine BI-Architektur entwickelt und diskutiert. Als Ergebnis steht eine Referenzarchitektur zur Verfügung, die den Regularien gerecht wird.

Mitwirkende

Autor:
Nils Keller

Weitere Informationen

Anmerkung Illustrationen:
22
Exzerpt:
Textprobe:
Kapitel 4.2.5. Ladekomponente:
Nachdem die Daten transformiert wurden, befinden sich die bereinigten und angemessen aufbereiteten Daten in der Rohdatenschicht. Die Daten sind für die Speicherung in Core Data Warehouse, Auswertungsdatenbank sowie in den Data Marts geeignet. Zwei Ladekomponenten sind für die Weiterleitung zuständig. Die erste Komponente ist für die Übertragung der Daten aus der Rohdatenschicht in das Core Data Warehouse zuständig. Die zweite Komponente überträgt dann die Daten aus dem Core Data Warehouse in die Auswertungsdatenbank bzw. von der Auswertungsdatenbank in die Data Marts - dorthin werden die auswertungsspezifischen Daten (wie beispielsweise die aggregierten Daten) übertragen. Datenbankmanagementsysteme nutzen dafür das jeweils zu Grunde liegende Ladewerkzeug (etwa den SQL Loader oder PowerCenter von Informatica).
4.2.6. Core Data Warehouse:
Das Core Data Warehouse wird auch als Basisdatenbank bezeichnet. Es ist zwischen der Rohdatenschicht und der Auswertungsdatenbank - vgl. Kapitel 4.2.7 - in der Referenzarchitektur angesiedelt. Weitere gebräuchliche Bezeichnungen für diese Datenbank sind beispielsweise konsolidierte Datenbank, Datendrehscheibe oder operative Datenbasis. Auf einer feingranularen Ebene enthält das Core Data Warehouse die gesamten Daten des Data Warehouse. Dadurch ist die Basis für die spätere Analyse gegeben. Das Core Data Warehouse ist nicht nach den Analysekomponenten entwickelt, sondern nach den Anforderungen des Datenbankentwurfes konzipiert. Das heißt, dass die Relationen sich in der dritten Normalform befinden sollen (Ziel ist eine redundanzfreie Speicherung). Des Weiteren ist die Datenhaltung bereinigt und historisiert durchzuführen. Damit stellt das Core Data Warehouse eine integrierte Datenbasis für unterschiedliche Analysen zur Verfügung - die allerdings unabhängig von den konkreten Analysen ist. Die Daten sind also nicht voraggregiert, um beispielsweise bestimmte Analysen zu beschleunigen. Die Hauptaufgabe der Komponenten ist es, das Data Warehouse mit bereinigten Daten zu versorgen. Aus diesem Grund ist streng genommen eine physikalische Speicherung der Daten nicht nötig und redundant, weil die kompletten Daten in den Datenwürfel geladen werden. Die redundanzfreie Speicherung und das neutrale Datenformat als Vorteile stehen der redundanten Speicherung eines großen Datenbestands als Nachteil gegenüber. Aus dem genannten Grund wird in der Praxis die Datenbank oft nur virtuell realisiert. Trotzdem nimmt das Core Data Warehouse eine zentrale Bedeutung für die Data-Warehouse-Architektur ein.
Charakterisiert wird das Core Data Warehouse wie folgt:
1 Die Schemata der verschiedenen Datenquellen und die integrierten Daten liegen vor (integrierte Sicht). 2 Alle Daten - aktuelle und historische - liegen in der Datenbank vor. Die Daten sind in der niedrigsten Granularität - auf der Ebene der Detaildaten -vorhanden. 3 Die Modellierung ist nicht speziell auf eine Auswertung ausgelegt, sondern auf Anwendungsneutralität. Es gibt keine Aggregate (wie sie etwa mit Blick auf typische OLAP-Anfragen anzutreffen sind). 4 Die Daten werden nach einer definierten Zeit an die Auswertungsdatenbanken übermittelt. Dort kann der Detailierungsgrad für den jeweiligen Auswertungszweck verdichtet werden. 5 Die Aktualisierung der Datenbank kann nach dem Aktualisierungsbedarf gesteuert werden. Durch eine häufigere Aktualisierung kann so eine zusätzliche Konsistenzprüfung vermieden werden. 6 Der Prozess der Datenbereinigung fand bereits in der Rohdatenschicht statt, deshalb enthält das Core Data Warehouse ausschließlich bereinigte Daten.
Zu den Funktionen des Core Data Warehouse gehören: 1 Es nimmt alle notwendigen Daten, die für Auswertungen benötigt werden, in Form eines (logisch) zentralen, operativen Datenlagers auf und integriert die Daten in eine Datenbank. 2 Es hat die Funktion der Distribution, indem es die Verteilung der Daten aus der Rohdatensc
Medientyp:
Taschenbuch
Verlag:
disserta Verlag
Biografie:
Nils Keller, M.A., wurde 1986 geboren. Nach seiner Berufsausbildung als Fachinformatiker mit Fachrichtung Systemintegration in einem renommierten norddeutschen Unternehmen in der Entsorgungswirtschaft entschied sich der Autor, seine fachlichen Qualifikationen im Bereich der Wirtschaftsinformatik durch ein Studium weiter auszubauen. Das Bachelorstudium der Wirtschaftsinformatik an der Jade Hochschule in Wilhelmshaven schloss er im Jahre 2011 mit dem akademischen Grad des Bachelor of Science erfolgreich ab. Anschließend vertiefte er sein Wissen in Form eines Masterstudiums der Wirtschaftsinformatik an der Technischen Hochschule Mittelhessen in Friedberg und schloss dieses im Jahr 2014 mit dem akademischen Grad Master of Science ab.Bereits während des Studiums sammelte der Autor umfassende praktische Erfahrungen in den Branchen Finanzdienstleistung, Gesundheitswesen und Logistik. In dieser Zeit entwickelte der Autor ein besonderes Interesse an der Business Intelligence.
Sprache:
Deutsch
Seitenanzahl:
180

Stammdaten

Produkttyp:
Taschenbuch
Veröffentlichungsdatum:
11. September 2015
Verpackungsabmessungen:
0.218 x 0.152 x 0.013 m; 0.28 kg
GTIN:
09783959351201
DUIN:
KIEHA6AUD4H
€ 59,99
Wir nutzen Cookies auf unserer Website, um deinen Besuch effizienter zu gestalten und dir mehr Benutzerfreundlichkeit bieten zu können. Klicke daher bitte auf "Cookies akzeptieren"! Nähere Informationen findest du in unserer Datenschutzerklärung.