digna 2026.01 Erweitert die Enterprise-Datenvalidierung innerhalb der Datenbank

24.03.2026

|

5

min. Lesezeit

digna 2026.01: Unternehmensdatenvalidierung innerhalb der Datenbank

Release 2026.01 ist die bedeutendste Erweiterung der digna-Datenvalidierungsarchitektur seit der Einführung des Moduls. Diese Version erweitert, welche Validierungsregeln abgedeckt werden können, wie sie durchgesetzt werden und wie die Plattform sich mit komplexen, mehrquelligen Unternehmensumgebungen verbindet. Die Hauptzusätze sind Mehrspalten-Einzigartigkeitsprüfungen und Validierung der referenziellen Integrität. Aber das Release führt auch Änderungen ein, wie Datenquellen modelliert, Datenbankverbindungen in Projekten verwaltet werden und wie Anomalieerkennung in spezifischen Geschäftskontexten funktioniert. Jedes dieser Elemente ist in der Praxis wichtig. 

Dieser Beitrag beschreibt, was neu ist und für wen es entwickelt wurde. 


Warum traditionelle Einzelspaltenvalidierung nicht ausreicht 

Die meisten Datenqualitätsplattformen erzwingen die Validierung auf Einzelspaltenebene. Prüfen Sie, ob ein Wert nicht null ist. Prüfen Sie, ob er innerhalb eines Bereichs liegt. Prüfen Sie, ob er ein Format erfüllt. Diese Prüfungen sind wichtig. Sie sind jedoch nicht ausreichend für die Arten von Datenqualitätsfehlern, die tatsächlich Unternehmensberichte und regulatorische Compliance gefährden. 

Die Fehlermodi, die in der Produktion am meisten Schaden verursachen, sind relational. Ein Transaktionsdatensatz, der eine Kundenkennung referenziert, die nicht mehr im Master existiert. Eine Bestellzeile, deren Produktcode einzeln einzigartig ist, aber innerhalb einer bestimmten Bestellung dupliziert ist, wodurch der zusammengesetzte Schlüssel verletzt wird. Eine finanzielle Exposition, deren Gegenparteireferenz nichts in der genehmigten Liste entspricht. Keiner dieser Fälle löst eine Einzelspaltenprüfung aus. Alle führen zu nachgelagerten Korruptionen, die teuer zu verfolgen sind und schwerer einem Prüfer zu erklären sind. 

Release 2026.01 fügt die Validierungsfunktionen hinzu, die diese Fehlermodi direkt adressieren. 


Mehrspalten-Einzigartigkeitsprüfungen: Validierung zusammengesetzter Geschäftsschlüssel 

Viele reale Geschäftseinheiten werden durch Kombinationen von Attributen definiert, nicht durch einzelne Kennungen. Eine Bestellzeile ist innerhalb einer Bestellung einzigartig, wenn die Kombination aus Bestell-ID und Zeilennummer eindeutig ist. Eine finanzielle Position ist einzigartig, wenn Konto, Instrument und Datum zusammen einzigartig sind. 

digna 2026.01 führt Einzigartigkeitsprüfungen über konfigurierbare Spaltensätze hinweg ein. Die Prüfung bewertet, ob die Kombination der ausgewählten Spalten Duplikate enthält und identifiziert Fälle, in denen zusammengesetzte Geschäftsschlüssel verletzt werden. Dies läuft vollständig innerhalb der Quelldatenbank über SQL-basierte Inspektion, ohne Datenexport oder zusätzliche Verarbeitungsschichten zu schaffen. 

Die praktische Auswirkung für Datenqualitäts- und Governance-Teams ist die Fähigkeit, doppelte Geschäftseinheiten zu entdecken, die ansonsten alle Einzelspaltenprüfungen sauber passieren würden. Für Datenlager, in denen sich langsam ändernde Dimensionen oder inkrementelle Ladevorgänge häufig sind, sind Verstöße gegen zusammengesetzte Schlüssel eine häufige Quelle stiller Datenkorruption, die Einzelspaltenvalidierung niemals aufdeckt. 


Überprüfungen der Referentialintegrität: Durchsetzung von Beziehungen über Datenquellen hinweg 

Der zweite große Validierungszusatz ist die Überprüfung der Referentialintegrität über Datenquellen hinweg. Diese Prüfung validiert, dass Fremdschlüsselwerte in einer Quelldatenquelle innerhalb einer referenzierten Zieldatenquelle existieren und erkennt verwaiste Datensätze und unterbrochene Beziehungen, bevor sie sich durch nachgelagerte Analyse- und Berichtspipelines fortpflanzen. 

Was dies praktisch auf Unternehmensebene nützlich macht, ist der Umfang, den es unterstützt. Die Überprüfungen der Referentialintegrität in digna 2026.01 funktionieren über verschiedene Tabellen und Ansichten, verschiedene Schemata innerhalb derselben Datenbank und verschiedene Datenbankverbindungen innerhalb desselben Projekts. Die Prüfung ist nicht auf Beziehungen innerhalb eines einzigen Schemas oder eines einzelnen Data Warehouses beschränkt. Ein Unternehmen, das Kundendaten im Master-Datensatz in einem System und Transaktionsdatensätze in einem anderen hält, kann die referentielle Beziehung zwischen ihnen validieren, ohne Daten in eine gemeinsame Umgebung zu replizieren. 

Dies unterstützt direkt die Datenqualitätsanforderungen, die in regulierten Branchen am wichtigsten sind: die Aufrechterhaltung der Integrität des Data Warehouses, die Validierung von Master-Datenbeziehungen, die Unterstützung der regulatorischen Berichterstattung und die Sicherstellung, dass BI- und Analysetools Daten konsumieren, die strukturell gesund sind. 

Die vollständige technische Dokumentation für beide neuen Validierungsfunktionen ist in den digna 2026.01 Release-Hinweisen verfügbar. 


Logische Datenquellen und globale Verbindungen: Vereinfachung komplexer Umgebungen 

Neben den Validierungszusätzen führt Release 2026.01 Änderungen ein, wie digna Datenquellen modelliert und Datenbankverbindungen verwaltet, was direkte Auswirkungen auf Teams hat, die in heterogenen Unternehmensumgebungen arbeiten. 

Datenquellen in 2026.01 repräsentieren jetzt eine logische Ebene innerhalb eines Projekts statt einer direkten Zuordnung zu einer physischen Tabelle. Jede logische Datenquelle kann von einer Datenbanktabelle, einer Datenbankansicht oder einer benutzerdefinierten SQL-Anweisung unterstützt werden. Dies entkoppelt die Inspektions- und Validierungslogik von der physischen Speicherstruktur, was wichtig ist, wenn sich Schemata weiterentwickeln, wenn Validierungsregeln auf abgeleitete Datensätze angewendet werden müssen oder wenn dieselbe Geschäftseinheit an mehreren physischen Orten dargestellt wird. 

Datenbankverbindungen werden jetzt auf einer globalen Ebene konfiguriert und können in allen Projekten wiederverwendet werden. Bisher mussten Teams, die mehrere Projekte in mehreren Datenbankumgebungen verwalteten, Verbindungen separat pro Projekt konfigurieren. Globale Verbindungen beseitigen diese Duplikation, verringern den Konfigurationsaufwand und stellen sicher, dass die Konnektivitätseinstellungen auf der Plattform konsistent sind. Projekte können jetzt auch mehrere Quellverbindungen gleichzeitig referenzieren und unterstützen realistische Unternehmensarchitekturen, in denen Daten über mehrere Data Warehouses oder operative Datenbanken verteilt sind. 


Anomalie-Relevanzbedingungen, modulweise Benachrichtigungen und CSV-Export 

Drei zusätzliche Funktionen in dieser Version adressieren spezifische operationale Schmerzpunkte, die Benutzer konstant hervorgehoben haben. 

Die Anomalie-Relevanzbedingung ermöglicht es Teams, eine Bedingung zu definieren, die steuert, ob digna Data Anomalies den Anomalie-Status für ein gegebenes Dataset bewertet. Statistiken werden immer berechnet. Aber wenn die definierte Bedingung nicht erfüllt ist, z.B. wenn die Datensatzanzahl unter einem Schwellenwert liegt, der die Anomalieerkennung statistisch bedeutsam macht, zeigt die Plattform keinen grünen, gelben oder roten Anomalie-Status für dieses Dataset an. Dies verhindert Alarmgeräusche von Datensätzen mit niedrigem Volumen oder von temporären Daten und stellt sicher, dass die Anomaliebewertung nur in Kontexten angewendet wird, in denen sie betrieblich bedeutsam ist. 

Die modulweise Benachrichtigungskonfiguration ermöglicht es Teams, unabhängiges Alarmverhalten für jedes digna Modul festzulegen. Ein Datentechnikteam, das für die Pünktlichkeit der Pipeline verantwortlich ist, kann Benachrichtigungen unabhängig von einem Governance-Team erhalten, das sich auf Validierungsfehler konzentriert. Alarme können an die Kritikalität des Ausgabes jedes Moduls angepasst werden, ohne eine einzelne Benachrichtigungspolitik auf die gesamte Plattform anzuwenden. 

Inspektionsergebnisse können jetzt als CSV-Dateien exportiert werden und bieten direkten praktischen Nutzen für Teams, die die Validierungsausgabe von digna in Audit-Workflows, externe Berichterstattung oder nachgelagerte Analysen außerhalb der Plattform einbinden müssen. 


Für wen diese Version entwickelt wurde 

  • Daten-Ingenieure profitieren von der logischen Datenquellenmodellierung, die die Inspektionslogik vom physischen Schema entkoppelt, und von globalen Verbindungen, die redundante Konfigurationen über Projekte hinweg beseitigen. 


  • Datenqualitäts- und Governance-Teams gewinnen die relationale Validierungsabdeckung: Die Einmaligkeit zusammengesetzter Schlüssel und die referenzielle Integrität, die benötigt werden, um die strukturellen Regeln durchzusetzen, die für die regulatorische Berichterstattung und das Master-Datenmanagement von Bedeutung sind. 


  • Analytics- und BI-Teams erhalten sauberere, strukturell gesundere Eingaben von vorgelagerten Datenystemen, mit exportierbaren Inspektionsergebnissen, die direkt in Audit- und Berichterstattungs-Workflows einfließen. 


  • Plattform- und Infrastrukturverantwortliche erhalten durch globale Verbindungen und logische Datenquellen eine Verringerung der Konfigurationskomplexität und durch modulweise Benachrichtigungssteuerung die Möglichkeit, die Alarmierung an die Teamstruktur anzupassen, anstatt eine einheitliche Politik über alle Kontexte hinweg anzuwenden. 

Release 2026.01 ist jetzt verfügbar. Das vollständige Änderungsprotokoll, einschließlich technischer Details zu allen neuen Funktionen und aktualisierter CLI-Referenz, ist unter docs.digna.ai/changelog/Release_202601 verfügbar. 

  

Bereit, 2026.01 in Ihrer Umgebung zu sehen? 

Mehrspalten-Einzigartigkeitsprüfungen, Validierung der referenziellen Integrität und In-Datenbank-Architektur, die Ihre Daten dort hält, wo sie hingehört. Buchen Sie eine personalisierte Durchsicht mit dem digna-Team, um die neuen Validierungsfunktionen in Ihrer eigenen Datenumgebung anzusehen. 

Demo buchen, Lesen Sie die vollständigen Release-Hinweise. 

Teilen auf X
Teilen auf X
Auf Facebook teilen
Auf Facebook teilen
Auf LinkedIn teilen
Auf LinkedIn teilen

Lerne das Team hinter der Plattform kennen

Ein in Wien ansässiges Team von KI-, Daten- und Softwareexperten, unterstützt

von akademischer Strenge und Unternehmensexpertise.

Lerne das Team hinter der Plattform kennen

Ein in Wien ansässiges Team von KI-, Daten- und Softwareexperten, unterstützt
von akademischer Strenge und Unternehmensexpertise.

Produkt

Integrationen

Ressourcen

Unternehmen

Deutsch
Deutsch