Skip to main content
Skip table of contents

SQL Profiling 2.0.3: Hinweise zum Datenlimit

Für SQL Profiling gibt es Grenzen bezüglich der Anzahl der Datensätze. Diese Grenzen sind jedoch keine festen Grenzen und es gibt keine Garantie, dass das Datenlimit auf jedem System ausgeschöpft werden kann. Das tatsächlich erreichbare Datenlimit hängt stark von der allgemeinen Leistungsfähigkeit des Datenbankmanagementsystems (DBMS) und der verwendeten Hardware ab.

Informationen zu den empfohlenen Werten für das Datenlimit und zur Testumgebung

Die hier genannten Datenlimits sind als Empfehlungen zu verstehen.

Das empfohlene Datenlimit gilt auch, falls das Logging von Schritten deaktiviert wurde.

Die genannten Werte sind keine Garantie dafür, dass die angegebene Anzahl von Zeilen auf jedem System in jeder Umgebung und in jedem Anwendungsfall erreicht werden kann. In unseren Tests haben wir diese Menge mit einer guten Abfrage-Antwortzeit erreicht, aber im Allgemeinen hängt die Leistung von vielen verschiedenen Faktoren ab, die von System zu System variieren.

Aus diesem Grund empfehlen wir Ihnen, Ihre eigenen spezifischen Leistungstests in Bezug auf die Menge und Form der Daten, die Sie protokollieren möchten, durchzuführen. Am besten testen Sie auf einem System, das dem produktiven System, das Sie einsetzen werden, sehr nahe kommt.

DBMS

Datenlimit

MSSQL

150 Mio.

PostgreSQL

60 Mio.

Das Datenlimit kann auf jede Tabelle angewendet werden.

Beispiel für MSSQL:

Datenbank-Tabelle

Datenlimit

ProcessBeforeEvent

150 Mio.*

ProcessAfterEvent

150 Mio.*

ProcessStepBeforeEvent

150 Mio.

ProcessStepAfterEvent

150 Mio.

* Bei dieser Datenmenge wird das Filtern nach einem bestimmten Zeitraum langsam bzw. ist möglicherweise nicht mehr möglich.

Empfehlungen zum Datenlimit

Wir raten davon ab, mehr als einige Millionen Prozessausführungen (eine Prozessausführung entspricht einer Zeile in jeder Tabelle) in die ProcessBeforeEvent- und ProcessAfterEvent-Tabellen zu schreiben, um eine schnelle Antwortzeit der Process Monitor App zu gewährleisten.

Besonders bei Filtern für die Zeitspanne steigt die Abfragezeit schnell mit der Anzahl der Zeilen in den ProcessBeforeEvent- und ProcessAfterEvent-Tabellen. Einige Millionen können 10 bis 25 Millionen sein, je nach Leistung der DBMS-Server sein.

Es ist möglich, Datenlimits zu nutzen, die über diesen Werten liegen. Jedoch liegt eine Nutzung von höheren Datenlimits in Ihrer Verantwortung.

Warum gibt es einen Unterschied zwischen MSSQL und PostgreSQL beim Datenlimit?

Der Unterschied ist auf die Testumgebung zurückzuführen. Aus Gründen, die sich auf die Beschaffenheit der Testumgebung beziehen, wurde PostgreSQL mit einem kleineren Datensatz getestet. Daher empfehlen wir für PostgreSQL ein Datenlimit wie oben angegeben.

JavaScript errors detected

Please note, these errors can depend on your browser setup.

If this problem persists, please contact our support.