- Sie befinden sich:
- Fachbücher
- »
- Natur & Technik - Unsere Neuheiten
- »
- Informatik
- »
- Konzeption und Realisierung eines Data Warehouses zur Analyse chirurgischer Workflows
Informatik
» Blick ins Buch
» weitere Bücher zum Thema
» Buch empfehlen
» Buch bewerten Produktart: Buch
Verlag:
Diplomica Verlag
Imprint der Bedey & Thoms Media GmbH
Hermannstal 119 k, D-22119 Hamburg
E-Mail: info@diplomica.de
Erscheinungsdatum: 06.2010
AuflagenNr.: 1
Seiten: 140
Abb.: 63
Sprache: Deutsch
Einband: Paperback
Im Umfeld der Medizintechnik entwickelt sich das noch junge und vielversprechende Konzept der Chirurgischen Workflows. Dabei handelt es sich um eine Methode zur intelligenten Erfassung von Prozessbeschreibungen, die im Laufe chirurgischer Eingriffe erhoben werden. Um diese Daten analysieren zu können, ist ein formales Modell notwendig, wodurch eine einheitliche Aufnahme der chirurgischen Vorgänge ermöglicht wird. Die Anwendungsbereiche Chirurgischer Workflows sind weit gestreut. Sie reichen von der Planungsunterstützung im Vorfeld der Operationen bis zur Workflow-Exploration auf Basis durchgeführter Operationen, von der Suche nach Optimierungspotential hinsichtlich der Instrumente bzw. Assistenzsysteme bis zur Verifizierung medizinischer Hypothesen. In dieser Studie wird ein Data Warehouse (DWH) entwickelt, womit chirurgische Workflows erfasst und analysiert werden können. Hierzu wird die herkömmliche Data-Warehouse-Technologie an die besonderen Anforderungen angepasst, die sich im Zusammenhang mit der Analyse von Prozessbeschreibungen ergeben. Es wird gezeigt, wie der Anwender eine multidimensionale Sicht sowohl der Operationen, wie auch ihrer Workflow-Komponenten, erhält und er in die Lage versetzt wird, die zu analysierenden Kennzahlen selbst zu definieren und diese entlang verschiedener Dimensionen und Detaillierungsgrade zu aggregieren. Zunächst führt der Autor in die grundlegenden Themen Business Intelligence (BI), Data Warehouse, multidimensionales Datenmodell und Online Analytical Processing (OLAP) sowie Business Process Intelligence (BPI) ein. In der initialen Designphase des DWH wird die Strukturierung des chirurgischen Workflows behandelt sowie die Überlegungen zu den eingesetzten Datenerfassungsstrategien beleuchtet. Das auf dieser Basis in Form eines E/R-Diagramms erstellte Modell zur Erfassung chirurgischer Prozesse dient als Grundlage für das nachfolgend zu entwickelnde multidimensionale Datenmodell und kann als Input einer Transformation betrachtet werden. Diese liefert - unter Beachtung der gestellten Anforderungen potentieller Anwender - als Output das multidimensionale Schema in Form einer Menge von Faktschemata. Im Verlauf dieser Transformation werden Herausforderungen ersichtlich, welche sich aus den vorgegebenen Einschränkungen des konventionellen OLAP-Ansatzes ergeben und es wird dargestellt, wie sich diese durch das vorgeschlagene erweiterte multidimensionale Datenmodell lösen lassen. So wird die Problematik kennzahlloser Fakten oder auch der Umgang mit heterogenen Fakten aufgezeigt. Das Auftreten von viele-zu-viele -Beziehungen zwischen Fakten und Dimensionen wird ebenso behandelt wie die Möglichkeit, Kennzahlen zur Laufzeit durch den Nutzer definieren zu lassen. Auch werden die Voraussetzungen, die Möglichkeiten und der Nutzen veranschaulicht, welche sich aus der Austauschbarkeit der Rollen hinsichtlich Fakt und Dimension bzw. Kennzahl und Dimension ergeben. Es wird weiter gezeigt, wie die Dimensionshierarchien aufgebaut werden und wie sie in einem Galaxy-Schema von verschiedenen Fakttypen gemeinsam genutzt werden können. Die Realisierung des modellierten Data Warehouses erfolgt auf einem relationalen Datenbanksystem im Zusammenspiel mit der Business Intelligence Suite Pentaho. Es wird dargestellt, wie das Metadatenmodell eines OLAP-Datenwürfels erstellt wird, auf dessen Basis multidimensionale Datenanalysen durchgeführt werden können. Abschließend werden einige Anwendungsfälle aus dem Bereich der OLAP-Analyse präsentiert.
Textprobe: Business Intelligence Suite Pentaho: Die Pentaho Corporation ist Hauptsponsor des Pentaho BI Projektes, einer fortlaufenden Initiative der Open Source Community. Dabei handelt es sich um eine kommerzielle Open Source (OS) Alternative für Business Intelligence, die 2002 von ehemaligen Managern und Brachenkennern aus dem BI-Umfeld in Orlando, Florida (USA), gegründet wurde. Mit der Pentaho Open BI Suite bietet sie ein breites Spektrum an OS Anwendungen bzw. Funktionalitäten, wie z.B. ein umfassendes Reporting, einen OLAP-Server, ein Tool zur Datenintegration, eine Data Mining Engine, Dashboarding, die BI-Plattform selbst als deren Basis, sowie zahlreiche weitere Tools zur Unterstützung des Anwenders. Pentaho ist die weltweit führende und am weitesten verbreitete OS BI Suite und gehört zu den 100 OS Projekten mit den meisten Downloads. Das Geschäftsmodell von Pentaho beinhaltet parallel zur kostenlosen eine kommerzielle Version, welche gegen ein jährliches Abonnement neben Produkterweiterungen auch Support, Schulungen, Zertifizierungen und weitere Kundenunterstützung (Beratung) bietet. Zudem bestehen Partnerschaften mit verschiedenen Softwarehäusern. Pentaho ist nicht von sich aus gewachsen, sondern vereint unter dem gemeinsamen Dach der Pentaho BI Suite neben Eigenentwicklungen hauptsächlich bereits bestehende OS Projekte durch deren Sponsoring bzw. Zukauf. Im nachfolgenden Abschnitt wird der logische Aufbau der Pentaho Open BI Suite und die darin enthaltenen Module bzw. Anwendungen gezeigt. Modularer Aufbau und Anwendungsbereiche von Pentaho: Durch den modularen Aufbau und der offenen Architektur der Pentaho BI Suite ist es möglich, die jeweiligen Module, welche wiederum aus einzelnen Komponenten bestehen, separat als Stand-Alone-Anwendungen zu nutzen oder auch in externe Anwendungen zu integrieren. Kommen die einzelnen Komponenten gemeinsam in der Pentaho BI Suite zum Einsatz, werden die jeweiligen Engines der entsprechenden Module mit dem Pentaho BI-Server gekoppelt. Abbildung 6-1 zeigt die wesentlichen Anwendungsgebiete (vgl. Rubrik Products in der Pentaho Open BI Suite. Als Datenbasis kann Pentaho neben den gängigen JDBC-fähigen RDBMS (wie z.B. Oracle, DB2, MS SQL Server, PostgreSQL u.a.) auch Daten nutzen, die im XML-Format zur Verfügung stehen. Des Weiteren besteht die Möglichkeit, eine Verbindung zu Daten des OLAP-Cubes über einen MDX-Abfragestring herzustellen. Zur Datenintegration stellt Pentaho das ETL-Tool Pentaho Data Integration (PDI) zur Verfügung, welches aus dem OS Projekt KETTLE hervorging und zur Aufgabe hat, Daten aus unterschiedlichen Quellen zu extrahieren, in ein bestimmtes Format zu transformieren und diese dann in das DWH zu laden. Zudem ermöglicht es den Einsatz in Enterprise Information Integration (EII) Szenarien. Pentaho verfügt über einen Metadaten-Layer, welcher nach den Vorgaben des Common Warehouse Model (CWM) umgesetzt wird und auf deren Basis eine logische Sicht auf die Zugriffsebene der Datenbank besteht. Da hierüber das Business-Modell realisiert ist, profitiert der Anwender in mehrfacher Weise, wie z.B. durch die Verwendung von benutzerfreundlichen Begriffen anstelle der Tabellen- u. Spaltennamen der Datenbanken, einer zentralen Definition von Formatierungen oder einem reduzierten Aufwand (infolge der Kapselung des Business-Modells und den relationalen Datenbank-Strukturen) bei Schema-Änderungen der Datenbank. Kern der BI Suite ist die BI-Plattform, die den zentralen Zugriffspunkt der Plattform darstellt. Dabei stehen dem Administrator über eine Webanwendung verschiedene Zugriffspunkte zur Verfügung. Hierzu zählen z.B. die Umsetzung von Security-Maßnahmen, die Administration der Module, die Verwaltung der Caches der verschiedenen Komponenten oder auch die Pflege des Repositories. Die BI-Plattform übernimmt auch die Ausführung der sogenannten Action Sequences. Dabei handelt es sich um XML-Dateien, in welchen verschiedene Aktionen definiert werden. Auf diese Weise wird eine durchgängige Prozessorientierung von Pentaho realisiert und ermöglicht dadurch die Implementierung eines prozessorientierten BI-Systems. Weitere Anwendungsbereiche, welche in den folgenden Abschnitten erläutert werden, ist neben den Bereichen Reporting und Dashboards auch der Bereich Analyse. Da das Analyse-Modul, insbesondere der OLAP-Bereich (und das zugehörige Modellierungstool Cube Designer) mit den Drill- und Explore-Funktionen sowie der graphischen Darstellung während der praktischen Umsetzung dieser Arbeit zum Einsatz kamen, widmet sich ein eigener Abschnitt dem Modul Analyse ausführlicher. Um die Ergebnisse der Analysen und Auswertungen auch darstellen bzw. weiterverarbeiten zu können, setzt die Präsentationsschicht auf die einzelnen Anwendungen auf. Der Präsentationsschicht sind z.B. Browser, Portale oder auch Web-Services zuzurechnen sowie die Möglichkeit, Ergebnisse via E-Mail weiterleiten zu können. Komponenten von Pentaho: Aus funktionaler Sicht lassen sich die einzelnen Komponenten verschiedenen Modulen zuordnen, die im Folgenden näher erläutert werden. BI-Plattform und Action Sequenzen: Die Basis der BI-Suite stellt die BI-Plattform dar. Diese besteht aus dem Pentaho BI-Server (wie im nächsten Abschnitt beschrieben) und dem Pentaho Design Studio. Der BI-Server stellt den Dreh- und Angelpunkt der gesamten Plattform dar und ist für die Ausführung der sogenannten Action Sequenzen verantwortlich, wobei es sich um die kleinste Einheit handelt, welche die Solution Engine verarbeiten kann. Diese werden in Form von XML-Dokumenten definiert und geben vor, wie Aktivitäten (z.B. Datenbankanfragen, Reportgenerierung, E-Mail-Aktionen) und in welcher Folge diese auszuführen sind. Der Datenfluss kann zwischen Aktivitäten innerhalb einer Action-Sequenz oder zwischen Ausführungen verschiedener Action-Sequenzen erfolgen. Action-Sequenzen definieren zunächst den zur Ausführung notwendigen Input, den auszuführenden Prozess selbst und den daraus resultierenden Output, welcher für weitere Action Sequenzen wiederum als Input dienen kann. Das Pentaho Design Studio ist eine Eclipse-basierte Anwendung zum Definieren, Testen und Administrieren von Action Sequenzen. Es setzt sich aus einer Sammlung von Editoren, Viewern und Modulen zusammen und vereint diese in einer grafischen Oberfläche. Pentaho BI-Server und dessen Architektur: Mit dem Pentaho BI-Server wird eine J2EE-kompatible Webanwendung angeboten, welche auf verschiedenen Applikationsservern (wie z.B. Tomcat bzw. JBoss die PCI-Version hat den JBoss-Server vorinstalliert) lauffähig ist. Der Anwender hat über ein Web-Frontend Zugriff auf den Server, welcher auch über Webservices, Java- u. AJAX-Schnittstellen angesprochen werden kann. Die Solution Engine stellt das Herz des BI-Servers dar. Sie verwaltet den Zugriff auf das Solution Repository und übernimmt zugleich die Steuerung und das Scheduling von Action Sequenzen. Eine Solution besteht aus mehreren Dokumenten und ist eine logische Gruppierung von Action Sequenzen und den zugehörigen Ressourcen. Zur Erzeugung der Solution stellt Pentaho Tools, wie z.B. den Cube Designer, zur Verfügung. Auf diese Solution erfolgt auf Dateiebene kein direkter Zugriff von der Solution Engine, sondern über das Solution Repository, in welche die Solution zuvor geladen wird. Während der Ausführung der Action Sequenzen wird aufdie entsprechenden Server Engines der jeweiligen Module zugegriffen. Im Runtime Repository speichert der BI-Server Ergebnisse, während im Audit Repository die Aktivitäten in einem Audit-Log aufgezeichnet werden. Das Berechtigungskonzept ermöglicht die Vergabe von Zugriffsrechten auf der Ebene von Verzeichnissen sowie auf Action Sequenzen.
Matthias Röger, Jahrgang 1974, arbeitete bis zu Beginn seines Studiums als Industriekaufmann. Zunächst studierte er an der Fachhochschule Konstanz Wirtschaftsinformatik - Fachrichtung Softwareentwicklung - und schloss dieses 2005 als Dipl.-Informatiker (FH) ab. In einem darauf aufbauenden Masterstudium im Studienfach Information Engineering an der Universität Konstanz spezialisierte er sich auf das Umfeld Business Intelligence und beendete dieses 2008 als Master of Science in Information Engineering. Während seines Studiums arbeitete er in der Arbeitsgruppe Datenbanken & Informationssysteme im Projekt Data Warehouse for Surgical Workflow Analysis und verfasste auch zu dieser Thematik seine Masterarbeit. In diesem Zusammenhang lieferte er bereits einen Beitrag als Co-Autor zu einem Buchkapitel über konzeptionelles Data-Warehouse-Design für Business Process Intelligence. Seit 2008 ist er als Consultant im Geschäftsfeld Business Intelligence in der Unternehmensberatung NOVO Business Consultants AG, Bern, tätig. Seine Beratungsschwerpunkte liegen dabei in der Analyse, Konzeption, Realisierung und Einführung von Business Intelligence Lösungen auf Basis von SAP BI/BW/BO. Weitere Publikationen: Conceptual Data Warehouse Design Methodology for Business Process Intelligence (Buchkapitel). Svetlana Mansmann, Thomas Neumuth, Oliver Burgert, Matthias Röger und Marc H. Scholl. In (David Taniar, Editor): Complex Data Warehousing and Knowledge Discovery for Advanced Retrieval Development: Innovative Methods and Applications, in Advances in Data Warehousing and Mining, IGI Press, Inc., 2008.
weitere Bücher zum Thema
Virtual Reality: Eine Analyse der Schlüsseltechnologie aus der Perspektive des strategischen Managements
Bearbeitete Neuausgabe
ISBN: 978-3-96146-904-8
EUR 39,99
On the structure of the Solomon-Tits algebra of the symmetric group. An analysis of associative, group theoretic and Lie theoretical phenomenons
With 224 exercises
ISBN: 978-3-95935-594-0
EUR 44,50
Adversariale Robustheit Neuronaler Netze. Verteidigungen gegen Vermeidungsangriffe zur Testzeit
ISBN: 978-3-96146-856-0
EUR 39,50
Lean Excellence in der Informationstechnologie
ISBN: 978-3-96146-840-9
EUR 39,50
Benefits of semantic data models. A study in the European goods transport industry
ISBN: 978-3-95935-564-3
EUR 44,90
Das chinesische Sozialkreditsystem. Künstliche Intelligenz als Umerziehungswerkzeug für ein überwachtes Volk
ISBN: 978-3-96146-813-3
EUR 34,50
Data Warehouse Factory: BI-Automation durch Data Vault mit SSIS und SAS Base
ISBN: 978-3-96146-648-1
EUR 39,99
Scheduling von Schleusungsvorgängen: Algorithmen zur Verkehrsoptimierung am Beispiel des Nord-Ostsee-Kanals
ISBN: 978-3-96146-631-3
EUR 48,00
SAP HANA Search Guide. Optimierung der SAP HANA Suche in strukturierten Daten
Eine Handlungsempfehlung