- Info
Online Transaction Processing
Online-Transaction-Processing (OLTP) befasst sich mit dem hocheffizienten und hochparallelen Online-Zugriff auf möglicherweise an unterschiedlichen Orten abgelegten Daten. Dabei stehen kurze Antwortzeiten, also ein hoher Durchsatz (Anzahl Transaktionen pro Zeiteinheit), und ho-he Konsistenz- und Sicherheitsanforderungen der oft massiv parallelen Anfragen im Vorder-grund.
Einführung und Definition
Daten stehen schon seit jeher im Zentrum der Datenverarbeitung.
Der massenhafte parallele Zugriff auf Daten hat nicht zuletzt dank des Internet
noch einmal deutlich an Bedeutung gewonnen. Damit stellte sich jedoch die Frage
des sicheren und effizienten (Online-)Zugriffs auf beliebige Daten,
insbesondere unter dem Aspekt von dauernden Datenänderungen und massiven
Parallelzugriffen auf die Datenmengen. OLTP befasst sich mit dem massiv
parallelen Onlinezugriff einer Vielzahl von Nutzern und Anwendungen auf einen
Datenbestand und bringt damit die Anforderung mit sich, dass Resultate schnell
zur Verfügung stehen müssen. Dies unterscheidet sie von Batch-Transaktionen,
die ohne direkte Involvierung eines Benutzers Aufgaben auf einem Rechner
erledigen und deshalb weniger zeitkritisch sind. Während also bei OLTP der
zeitkritische Zugriff auf aktuelle Datenbestände im Vordergrund steht, widmet
sich das Online Analytical Processing (OLAP) im Wesentlichen der intelligenten
und zielgerichteten Aufbereitung und Auswertung von über einem längeren
Zeitraum angesammelten Daten.
Bei typischen OLTP-Anwendungen geht man davon aus, dass die
Interaktion zwischen dem System und der Anwendung sehr kurz, aber zeitkritisch ist,
wobei häufig eine hohe Anzahl von Transaktionen parallel laufen. Diese
Transaktionen stellen hohe Sicherheits- und Konsistenzanforderungen an das
System, weshalb die sogenannten ACID-Eigenschaften
garantiert werden müssen (siehe Transaktion).
Typische Anwendungen für OLTP sind Bezahlungen von Artikeln in Geschäften über
Kreditkarten, die Nutzung von Geldautomaten oder aber die Buchung von Flügen oder
Reisen über das Internet. Die wesentlichen Datenbankmanagementsystem-Anbieter unterstützen
heutzutage Transaktionslasten von über 1000 Transaktionen pro Sekunde. Hierbei
wird unterstellt, dass die Zugriffe auf ein
Datenbanksystem erfolgen. In Netzwerken, wo eine Vielzahl unterschiedlicher Anwendungen
auf unterschiedliche Datenquellen zugreifen möchte, bedient man sich häufig
einer Middleware, den sogenannten Transaction Processing Monitoren, um den
reibungslosen und konsistenten Zugriff auf diese Daten zu ermöglichen.
Transaction Processing Monitor
TP-Monitore steuern und regulieren als Middleware den
effizienten und fehlertoleranten Zugriff unterschiedlichster Anwendungen und
Endgeräte auf eine Menge von unterschiedlichen Datenquellen (möglicherweise
auch innerhalb einer Transaktion). Dabei konzentrieren
sie sich nicht ausschließlich auf Online-Transaktionen, sondern unterstützen
alle Arten von Transaktionen, also auch Batch-Transaktionen. Zu den
vielfältigen Aufgaben, die sie abdecken, gehören insbesondere auch die
folgenden:
- Das Harmonisieren der unterschiedlichen
Darstellung von Daten in dem Fall, dass die Datenquellen und die Anwendung auf
unterschiedlicher Hardware mit unterschiedlichen Betriebssystemen laufen.
- Die Steuerung und Überwachung des Zugriffes auf
entfernt liegende Datenbestände.
- Die Koordination von Zugriffen auf verschiedene
Datenbestände - z.B. über das Zwei-phasen-Freigabeprotokoll -, falls die Daten
aus mehreren Quellen bezogen werden müssen.
- Die Steuerung und Überwachung der Last beim
Zugriff auf Datenbestände inklusive der Durchsetzung von möglichen Vorrangregeln.
- Die Überwachung und Ausführung von Aufgaben, die
logisch oberhalb einer einzelnen Transaktion liegen. Hierunter fällt
beispielsweise die kontrollierte Ausführung einer Folge von Transaktionen,
wobei möglicherweise nicht alle Transaktionen auf derselben DB auszuführen
sind.
- Die Behandlung von Fehlern, die aufgetreten
sind, nachdem die Daten den Arbeits- bzw. Kontrollbereich des DBMS verlassen
haben, also von diesem nicht bemerkt und damit nicht mehr behandelt werden
können. Darunter fällt z.B. die sichere, d.h. garantierte und korrekte
Übertragung von Ergebnissen auf den Bildschirm der Anwendung.
Damit wird auch deutlich, warum TP-Monitore in der DV-Landschaft
vieler Unternehmen eine herausragende Rolle spielen. Sie verbergen einerseits Heterogenität,
gleich welcher Art, und garantieren andererseits eine hohe Fehlertoleranz
oberhalb von Datenbankmanagementsystemen. Dies vereinfacht die Implementierung von
Anwendungen spürbar, da Probleme der Parallelität oberhalb eines
Datenbanksystems, Kommunikationsprobleme, Verbindungsprobleme zwischen oder
Ausfälle von Rechnern, heterogene Hardware und viele andere Probleme nicht mehr
in der Anwendung selbst behandelt werden müssen.
Zu den bekanntesten kommerziell verfügbaren TP-Monitoren
gehören ACMSxp von Digital, Customer Information Control System (CICS) von IBM,
openUTM von Fujitsu Siemens Computers, Microsoft Transaction Server (MTS) von
Microsoft und Tuxedo von BEA Systems.
Autor
Prof. Dr. Rainer Unland, Universität Duisburg-Essen, Institut für Informatik und Wirtschaftsinformatik (ICB), Datenverwaltungssysteme und Wissensrepräsentation, Schützenbahn 70, 45117 Essen
Autoreninfo
Zuletzt bearbeitet: 19.02.2019 15:21
Letzter Abruf: 19.01.2021 15:41