
Ein 4-Stunden-RTO zu erreichen, ist keine Frage der Backup-Geschwindigkeit, sondern der Fähigkeit, betriebliche Komplexität und den menschlichen Faktor im Krisenfall zu meistern.
- Die wahren Kosten eines Ausfalls liegen in den „stillen“ Posten wie manueller Daten-Nacherfassung und dem Verlust von Kundenvertrauen.
- Ein praxistaugliches Notfallhandbuch ist rollenbasiert und für Nicht-Techniker verständlich, nicht ein 200-seitiges IT-Dokument.
Empfehlung: Fokussieren Sie Ihre DR-Strategie weniger auf reine Technik und mehr auf die realistische Validierung von Prozessen und die Vermeidung übersehener Abhängigkeiten wie dem Schlüssel-Management.
Die Vorstellung ist für jeden Geschäftsführer und IT-Leiter ein Albtraum: Ein Totalausfall. Sei es durch einen Cyberangriff, einen Hardware-Defekt oder eine Naturkatastrophe – die Systeme stehen still. Die Standardantwort darauf lautet oft: „Wir haben Backups.“ Man spricht über RTO (Recovery Time Objective) und RPO (Recovery Point Objective), definiert Ziele und investiert in schnelle Speicherlösungen. Die magische Grenze von vier Stunden wird oft als Zielmarke für die Wiederherstellung der Geschäftsfähigkeit genannt. Doch diese technische Fokussierung greift zu kurz und schafft eine trügerische Sicherheit.
Die Realität sieht anders aus. Die grössten Hürden auf dem Weg zurück zur Normalität sind selten rein technischer Natur. Sie liegen in den unklaren Prozessen, den übersehenen Abhängigkeiten und dem menschlichen Faktor, der unter dem extremen Druck einer Krise versagt. Ein Wiederherstellungsplan, der nur von IT-Spezialisten verstanden wird, ist um 3 Uhr nachts wertlos, wenn die entscheidenden Personen nicht erreichbar sind. Die eigentliche Herausforderung ist nicht die Wiederherstellung von Daten, sondern die Wiederherstellung der betrieblichen Resilienz – die Fähigkeit des Unternehmens, seine Kernprozesse schnell und sicher wieder aufzunehmen.
Dieser Artikel bricht mit der rein technischen Sichtweise. Wir tauchen tief in die Aspekte ein, die oft übersehen werden, aber über Erfolg oder Scheitern im Ernstfall entscheiden. Anstatt nur über Backup-Technologien zu sprechen, beleuchten wir die stillen Kosten eines Datenverlusts, die Psychologie eines guten Notfallhandbuchs und die fatalen Fallstricke bei Verschlüsselung und Validierung. Ziel ist es, Ihnen einen realistischen und praxiserprobten Weg aufzuzeigen, wie Sie die 4-Stunden-Marke nicht nur als technisches Ziel, sondern als garantierte betriebswirtschaftliche Überlebensversicherung für Ihr Schweizer Unternehmen etablieren.
Dieser Leitfaden führt Sie strukturiert durch die kritischsten, oft übersehenen Aspekte einer robusten Disaster-Recovery-Strategie. Jeder Abschnitt konzentriert sich auf eine spezifische Herausforderung und bietet konkrete, in der Praxis erprobte Lösungsansätze, die weit über die reine IT-Theorie hinausgehen.
Inhaltsverzeichnis: Ihr Weg zur 4-Stunden-Wiederherstellungsfähigkeit
- Warum der Unterschied zwischen „Daten von gestern“ und „Daten von vor einer Stunde“ Millionen kosten kann?
- Wie schreiben Sie ein DR-Handbuch, das auch nachts um 3 Uhr ohne IT-Experten verständlich ist?
- Hardware- vs. Software-Verschlüsselung: Was bremst Ihre Wiederherstellungszeit weniger?
- Der fatale Fehler, verschlüsselte Backups ohne den Key-Management-Server wiederherstellen zu wollen
- Wann ist das letzte Mal, dass Sie ein vollständiges Restore wirklich durchgeführt haben?
- Das Risiko, korrupte Datenbanken online zu bringen: Wie prüfen Sie vor der Freigabe?
- Das „Bad-Patch“-Dilemma: Wie verhindern Sie, dass ein Sicherheitsupdate Ihre Fachanwendung crasht?
- Warum sind georedundante Backups innerhalb der Schweiz die sicherste Lebensversicherung für Ihre Daten?
Warum der Unterschied zwischen „Daten von gestern“ und „Daten von vor einer Stunde“ Millionen kosten kann?
In der Diskussion um Business Continuity werden die Begriffe RPO (Recovery Point Objective) und RTO (Recovery Time Objective) oft wie technische Kennzahlen behandelt. Dabei übersehen viele die brutale betriebswirtschaftliche Realität, die sich dahinter verbirgt. Das RPO definiert den maximal tolerierbaren Datenverlust – also den Unterschied zwischen dem letzten Backup und dem Zeitpunkt des Ausfalls. Ein RPO von 24 Stunden klingt vielleicht akzeptabel, bis man die „stillen Kosten“ berechnet, die durch die manuelle Nacherfassung der Arbeit eines ganzen Tages entstehen. Es geht nicht nur um verlorene Transaktionen, sondern um die mühsame Rekonstruktion von Kundeninteraktionen, Produktionsdaten oder Designänderungen.
Die direkten finanziellen Auswirkungen einer Ausfallzeit sind immens. Eine aktuelle Studie zeigt, dass 91% der mittleren und grossen Firmen über 300’000 US-Dollar pro Stunde Ausfallzeit verlieren. Diese Zahl allein sollte ausreichen, um das RPO von einer technischen Einstellung zu einer strategischen Geschäftsentscheidung zu erheben. Doch selbst diese Summe erfasst nicht das ganze Bild. Indirekte Kosten wie Reputationsschäden, Vertragsstrafen durch verletzte SLAs oder der dauerhafte Verlust von Kundenvertrauen können den direkten Schaden um ein Vielfaches übersteigen. In der Schweiz wurden in den letzten drei Jahren etwa 4% der KMU Opfer schwerer Cyberangriffe, was die Bedrohung greifbar macht.
Die Entscheidung zwischen einem Datenstand von „gestern“ und „vor einer Stunde“ ist daher keine IT-Frage, sondern eine Risikoabwägung auf Geschäftsleitungsebene. Jede Minute an verlorenen Daten bedeutet nicht nur technischen Aufwand, sondern erzeugt Reibungsverluste im gesamten Unternehmen. Die Frage muss lauten: Was kostet es uns wirklich, die Arbeit von 8 Stunden, einer Stunde oder 15 Minuten manuell nachzupflegen und welche Folgeschäden riskieren wir dabei? Erst diese ehrliche Antwort erlaubt die Festlegung eines sinnvollen und wirtschaftlich vertretbaren RPO.
Wie schreiben Sie ein DR-Handbuch, das auch nachts um 3 Uhr ohne IT-Experten verständlich ist?
Ein klassisches Disaster-Recovery-Handbuch ist oft ein 200-seitiges technisches Kompendium, das im Krisenfall nutzlos ist. Wenn um 3 Uhr nachts die Lichter ausgehen, braucht die Geschäftsleitung keine Abhandlung über RAID-Level, sondern sofortige Entscheidungsklarheit. Ein effektives Handbuch muss daher für Nicht-Techniker geschrieben sein. Der Fokus muss von der technischen Wiederherstellung auf die Koordination der betrieblichen Reaktion verlagert werden. Wer muss informiert werden? Wer hat die Befugnis, externe Partner zu aktivieren? Welche juristischen Meldepflichten bestehen?
Der Schlüssel liegt in einem rollenbasierten Ansatz. Statt eines monolithischen Dokuments bewähren sich laminierte „Quick Action Cards“ für jede Schlüsselrolle: CEO, HR, Kommunikation, Rechtsabteilung. Jede Karte enthält eine einfache, visuelle Checkliste der ersten drei bis fünf Schritte, die diese Person in der ersten Stunde des Notfalls durchführen muss. Dies reduziert Panik und stellt sicher, dass kritische, nicht-technische Aufgaben wie die interne und externe Kommunikation oder die Einhaltung rechtlicher Vorgaben nicht vergessen werden. Die visuelle Aufbereitung ist dabei entscheidend.

Diese Karten und visuellen Entscheidungsbäume zwingen zur Reduktion auf das absolut Wesentliche. Sie eliminieren Fachjargon und ersetzen ihn durch klare Handlungsanweisungen. Ein gutes DR-Handbuch beantwortet Fragen wie: „Welche externen Dienstleister dürfen wir ohne weitere Freigabe kontaktieren und wo finden wir die 24/7-Notfallnummern?“ oder „Welches ist der vordefinierte Text für die erste Kundeninformation?“. Es ist ein Krisen-Playbook, kein technisches Lexikon. Die Erstellung dieses Handbuchs ist ein Prozess, der alle Abteilungen einbeziehen muss, um die realen Abläufe und Abhängigkeiten abzubilden.
Ihr Plan für ein praxistaugliches DR-Handbuch
- Erstellen Sie rollenbasierte „Quick-Action-Cards“ anstelle eines einzigen, monolithischen Dokuments, das niemand liest.
- Integrieren Sie visuelle Notfall-Flowcharts für die Geschäftsleitung, die juristische und kommunikative Schritte aufzeigen.
- Definieren Sie unmissverständlich die Entscheidungsbefugnisse und Eskalationspfade für jede Phase des Notfalls.
- Dokumentieren Sie vorautorisierte Zugriffsrechte und Mandate für externe Notfallpartner, um im Krisenfall keine Zeit mit Verträgen zu verlieren.
- Pflegen Sie eine zentrale, offline verfügbare Kontaktliste mit allen internen und externen 24/7-Erreichbarkeiten.
Hardware- vs. Software-Verschlüsselung: Was bremst Ihre Wiederherstellungszeit weniger?
Die Verschlüsselung von Backups ist aus Compliance- und Sicherheitsgründen (z.B. gemäss nDSG in der Schweiz) eine absolute Notwendigkeit. Doch im Ernstfall kann die Verschlüsselung selbst zum grössten Bremsklotz für eine schnelle Wiederherstellung werden. Die Wahl zwischen hardware- und softwarebasierter Verschlüsselung hat direkte Auswirkungen auf Ihr Recovery Time Objective (RTO). Software-Verschlüsselung, die auf den CPUs der wiederherzustellenden Server läuft, konkurriert um wertvolle Rechenleistung, die eigentlich für den Restore-Prozess benötigt wird. Benchmark-Tests zeigen, dass Software-Verschlüsselung die Wiederherstellungszeit um 100-150% verlängern kann. Das bedeutet, ein geplanter 2-Stunden-Restore kann sich plötzlich auf vier oder fünf Stunden ausdehnen und Ihr gesamtes RTO-Ziel zunichtemachen.
Hardware-Verschlüsselung, die auf dedizierten Chips in Speicher-Controllern oder Bandlaufwerken stattfindet, entlastet die Hauptprozessoren. Der Performance-Impact während der Wiederherstellung ist minimal, da die Entschlüsselung parallel zum Datenstrom erfolgt. Obwohl die Initialkosten höher sein können, ist dieser Ansatz oft die einzige Möglichkeit, ein aggressives 4-Stunden-RTO bei grossen Datenmengen zuverlässig zu erreichen. Die Entscheidung hängt stark von der Kritikalität und dem Volumen der Daten ab.
Die folgende Tabelle stellt die wichtigsten Kriterien für ein Schweizer KMU gegenüber und zeigt, wo die jeweiligen Stärken und Schwächen liegen, insbesondere im Hinblick auf ein 4-Stunden-RTO.
| Kriterium | Hardware-Verschlüsselung | Software-Verschlüsselung |
|---|---|---|
| Performance-Impact bei Restore | Minimal (dedizierte Chips) | Hoch (CPU-intensiv) |
| Initialkosten für KMU | CHF 10’000-50’000 | CHF 500-5’000 |
| Personalabhängigkeit | Gering (automatisiert) | Hoch (Konfiguration nötig) |
| Typische Restore-Zeit (100GB) | 45-90 Minuten | 120-240 Minuten |
| Cloud-Kompatibilität | Eingeschränkt | Vollständig |
Der fatale Fehler, verschlüsselte Backups ohne den Key-Management-Server wiederherstellen zu wollen
Sie haben Ihre Backups vorschriftsmässig verschlüsselt. Im Katastrophenfall starten Sie die Wiederherstellung und stellen fest: Der Server, der die Verschlüsselungsschlüssel verwaltet (Key Management Server, KMS), war Teil der virtualisierten Umgebung, die gerade ausgefallen ist. Sie stehen vor einem unlösbaren Henne-Ei-Problem, dem Schlüssel-Dilemma: Sie benötigen den KMS, um die Systeme wiederherzustellen, auf denen der KMS selbst lief. Ihre Backups sind vorhanden, sicher – und komplett nutzlos. Dieser Fehler ist einer der häufigsten und fatalsten Stolpersteine in Disaster-Recovery-Szenarien.
Die einzige Lösung für dieses Dilemma ist eine strikte physische und logische Trennung des Key Managements von der primären Produktionsumgebung. Ein KMS gehört nicht in denselben virtuellen Cluster oder dasselbe Storage-System wie die zu schützenden Daten. Diese Anforderung wird auch von führenden Sicherheitsstandards unterstrichen. So betont der deutsche Bundesamt für Sicherheit in der Informationstechnik (BSI), eine auch in der Schweiz hoch anerkannte Instanz:
Ein ‚Out-of-Band‘-KMS, der physisch und logisch komplett vom primären System getrennt ist, ist essentiell für die Disaster Recovery.
– BSI Standard 200-4, Bundesamt für Sicherheit in der Informationstechnik
In der Praxis bedeutet dies, den KMS entweder auf dedizierter, separater Hardware zu betreiben oder einen spezialisierten Cloud-Dienst zu nutzen, der diese Trennung garantiert. Lösungen wie ein Storage Disaster Recovery Service (SDRS) als Add-on können diese Trennung sicherstellen, indem sie das Key Management von den primären Systemen entkoppeln. Die Investition in eine solche „Out-of-Band“-Lösung ist keine Option, sondern eine zwingende Voraussetzung für jede DR-Strategie, die auf verschlüsselten Daten beruht. Andernfalls besitzen Sie im Ernstfall nur eine wertlose, verschlüsselte Datenhalde.
Wann ist das letzte Mal, dass Sie ein vollständiges Restore wirklich durchgeführt haben?
Die grösste Lücke in vielen Business-Continuity-Plänen ist nicht die Technologie, sondern die fehlende, realistische Validierung. Ein Backup, dessen Wiederherstellung nie getestet wurde, ist kein Backup – es ist eine Hoffnung. Die Realität in der Schweiz ist ernüchternd. Die FHNW Cyberstudie 2024 zeigt alarmierend, dass ein Drittel der KMU nie geprüft hat, ob die Wiederherstellung aus dem Backup überhaupt funktioniert. Diese Unternehmen wiegen sich in einer falschen Sicherheit, die im Ernstfall katastrophale Folgen haben kann. Ein erfolgreiches Backup-Log sagt nichts darüber aus, ob die Daten auch wirklich lesbar und konsistent sind.
Ein echter Restore-Test geht weit über das technische Wiederherstellen einer einzelnen virtuellen Maschine hinaus. Es muss ein Business-Walkthrough-Test sein. Das bedeutet, nach dem simulierten Restore müssen Mitarbeiter aus den Fachabteilungen – Buchhaltung, Logistik, Verkauf – ihre alltäglichen Prozesse auf dem wiederhergestellten System durchführen. Kann die Buchhaltung eine Rechnung erstellen? Kann die Logistik einen Lieferschein drucken? Funktioniert die Schnittstelle zur Branchensoftware? Nur so lassen sich Abhängigkeiten und Probleme aufdecken, die in einem reinen IT-Test unsichtbar bleiben.

Solche Tests sollten quartalsweise und idealerweise unangekündigt für ausgewählte kritische Systeme stattfinden. Sie dienen nicht nur der technischen Validierung, sondern auch dem Training des Krisenteams und der Sensibilisierung der Fachabteilungen. Zudem zwingen sie dazu, oft übersehene Aspekte wie die Kosten für den Datenverkehr aus der Cloud (Egress-Fees) während eines grossen Restores zu budgetieren. Ein Restore-Test ist keine lästige Pflicht, sondern der einzige Weg, um aus einem theoretischen Plan eine gelebte, funktionierende betriebliche Resilienz zu machen.
Das Risiko, korrupte Datenbanken online zu bringen: Wie prüfen Sie vor der Freigabe?
Herzlichen Glückwunsch, die Wiederherstellung Ihrer kritischen Datenbanken war technisch erfolgreich und innerhalb des RTO. Doch nun lauert die nächste Gefahr: die Validierungsfalle. Was passiert, wenn die wiederhergestellten Daten zwar strukturell intakt, aber inhaltlich (semantisch) korrupt sind? Beispielsweise könnten durch einen Fehler während des Ausfalls Kontosalden falsch verbucht oder Lagerbestände inkonsistent geworden sein. Wenn Sie eine solche korrupte Datenbank wieder für den Live-Betrieb freigeben, verursachen Sie möglicherweise einen noch grösseren Schaden als durch den ursprünglichen Ausfall, da nun alle neuen Transaktionen auf einer fehlerhaften Basis aufbauen.
Die Lösung ist die Implementierung einer „Quarantäne“- oder „Sandbox“-Umgebung. Nach der technischen Wiederherstellung wird die Datenbank in dieser isolierten Umgebung hochgefahren, ohne dass Endbenutzer darauf zugreifen können. In dieser Phase müssen automatisierte und manuelle Validierungs-Skripte laufen. Diese sogenannten semantischen Checks gehen weit über eine einfache Datenbank-Integritätsprüfung (wie CHKDSK) hinaus. Sie prüfen die Geschäftslogik: Stimmt die Summe der offenen Posten mit dem Hauptbuch überein? Gibt es negative Lagerbestände? Sind alle verknüpften Tabellen konsistent?
Entscheidend ist, dass diese Prüfung nicht allein von der IT durchgeführt wird. Fachexperten aus den jeweiligen Geschäftsbereichen müssen in den Prozess einbezogen werden. Sie sind die Einzigen, die anhand von Stichproben beurteilen können, ob die Daten plausibel sind. Die Zusammenarbeit zwischen IT und den Geschäftsinhabern ist hier unerlässlich, um RTOs und RPOs für jede Anwendung realistisch zu berechnen und die richtigen Validierungsschritte zu definieren. Erst nach der expliziten Freigabe durch die Fachexperten darf die Datenbank für den produktiven Betrieb online geschaltet werden. Diese zusätzliche Schleife muss im RTO-Plan fest einkalkuliert sein.
Das „Bad-Patch“-Dilemma: Wie verhindern Sie, dass ein Sicherheitsupdate Ihre Fachanwendung crasht?
Ein häufig unterschätzter Auslöser für einen Totalausfall ist nicht der Angriff von aussen, sondern ein Fehler von innen: ein „Bad Patch“. Sie installieren ein kritisches Sicherheitsupdate für Ihr Betriebssystem, nur um festzustellen, dass es eine Inkompatibilität mit Ihrer überlebenswichtigen Branchensoftware oder Fachanwendung gibt. Die Anwendung stürzt ab, der Betrieb steht still. Dieses Dilemma – die Notwendigkeit, schnell zu patchen, versus das Risiko, die Stabilität zu gefährden – ist eine ständige Gratwanderung. Viele Schweizer KMU unterschätzen dieses Risiko und fühlen sich trügerisch sicher, während ihre Vorbereitung ungenügend ist.
Die riskanteste Methode ist das direkte Einspielen von Patches in die Produktionsumgebung. Eine sicherere, aber langsamere Methode ist das Abwarten einer expliziten Freigabe durch den Hersteller der Fachanwendung. Dies öffnet jedoch potenziell für Wochen ein gefährliches Sicherheitsfenster. Die effektivste Strategie für viele Unternehmen ist die Implementierung von Patch-Rings. Dabei wird ein Patch gestaffelt ausgerollt: Zuerst auf einer Testumgebung, dann auf einer kleinen, unkritischen Pilotgruppe von Benutzern (Ring 1), dann auf eine breitere Gruppe (Ring 2) und erst danach flächendeckend. So können Probleme frühzeitig erkannt werden, bevor sie den gesamten Betrieb lahmlegen.
Für absolut kritische Systeme, bei denen keinerlei Ausfall tolerierbar ist, bietet sich der Ansatz der „Immutable Infrastructure“ an. Statt einen laufenden Server zu patchen, wird eine komplett neue, bereits gepatchte Server-Instanz bereitgestellt. Nach erfolgreichen Tests wird der Netzwerkverkehr einfach auf die neue Instanz umgeleitet. Die alte Instanz wird abgeschaltet. Dies eliminiert das Risiko eines fehlgeschlagenen Patch-Vorgangs vollständig, ist aber mit höheren Kosten und Komplexität verbunden.
| Strategie | Risiko | RTO-Impact | Kosten |
|---|---|---|---|
| Patch-Rings (gestaffelt) | Niedrig | Minimal | Mittel |
| Immutable Infrastructure | Sehr niedrig | Null | Hoch |
| Direktes Patching | Hoch | Potentiell katastrophal | Niedrig |
| Vendor-Validierung abwarten | Mittel (Sicherheitslücken) | Keiner | Niedrig |
Das Wichtigste in Kürze
- Echte Resilienz geht über IT hinaus: Sie umfasst Prozesse, Menschen und die Fähigkeit, den Geschäftsbetrieb aufrechtzuerhalten.
- Ein Notfallhandbuch muss für Manager, nicht für Techniker geschrieben sein. Einfachheit und Klarheit sind im Krisenfall entscheidend.
- Ungetestete Backups sind wertlos. Nur regelmässige, realistische Restore-Tests unter Einbeziehung der Fachabteilungen schaffen Sicherheit.
Warum sind georedundante Backups innerhalb der Schweiz die sicherste Lebensversicherung für Ihre Daten?
Ein Backup im selben Brandabschnitt oder sogar im selben Gebäude wie die Primärsysteme schützt vor vielen, aber nicht vor allen Katastrophen. Ein Grossbrand, eine Überflutung, ein grossflächiger Stromausfall oder ein physischer Sabotageakt können sowohl Ihre produktiven Daten als auch Ihre lokalen Backups gleichzeitig vernichten. Eine weltweite Umfrage zeigt, dass 80% der Rechenzentrumsleiter in drei Jahren mindestens einen Ausfall erlebten. Georedundanz, also die räumliche Trennung von primärem und sekundärem Datenstandort, ist daher keine Paranoia, sondern eine grundlegende Säule jeder ernsthaften Disaster-Recovery-Strategie.
Für Schweizer Unternehmen bietet die Speicherung der Daten ausschliesslich innerhalb der Landesgrenzen entscheidende Vorteile. Es garantiert die Einhaltung des neuen Datenschutzgesetzes (nDSG) und spezifischer regulatorischer Vorgaben, beispielsweise der FINMA für den Finanzsektor. Daten, die die Schweiz nie verlassen, unterliegen nicht der Gerichtsbarkeit anderer Staaten und schützen so vor unliebsamen Zugriffen ausländischer Behörden. Cloud-Anbieter, die explizit Rechenzentren in der Schweiz betreiben, bieten hier höchste Sicherheit gemäss europäischen Datenschutzbestimmungen.
Eine bewährte Praxis ist die Einrichtung des primären Rechenzentrums in einer Wirtschaftsregion, z.B. in der Deutschschweiz, und des sekundären Backup-Standorts in einer anderen, z.B. in der Romandie. Eine Distanz von mindestens 100 Kilometern sowie die Anbindung an separate Stromnetze und Internet-Provider stellen sicher, dass ein lokales oder regionales Grossereignis nicht beide Standorte gleichzeitig betrifft. Die automatische, asynchrone Replikation der Daten zum sekundären Standort mit einem RPO von maximal 15 Minuten sorgt dafür, dass im Katastrophenfall ein aktueller Datenstand für die Wiederherstellung zur Verfügung steht. Diese Investition ist die ultimative Lebensversicherung für das digitale Herz Ihres Unternehmens.
Häufige Fragen zur Wiederherstellung von Datenbanken
Was sind semantische Checks und warum reicht CHKDSK nicht aus?
Semantische Checks validieren die Geschäftslogik (z.B. ob Kontosalden nach einer Wiederherstellung noch übereinstimmen), während eine einfache Integritätsprüfung wie CHKDSK nur die strukturelle Integrität der Datenbankdatei prüft, aber nichts über die Korrektheit der Inhalte aussagt.
Wie lange sollte die Quarantäne-Phase dauern?
Die Dauer der Quarantäne-Phase, in der die Daten validiert werden, hängt von der Kritikalität der Anwendung ab und muss im RTO einkalkuliert sein. Sie liegt typischerweise zwischen 30 Minuten und 2 Stunden.
Wer sollte die Datenqualität in der Sandbox prüfen?
Die Prüfung muss zwingend von Fachexperten aus den jeweiligen Geschäftsbereichen durchgeführt werden, nicht nur vom IT-Personal. Sie sind die Einzigen, die die inhaltliche Richtigkeit und Plausibilität der Daten beurteilen können, idealerweise anhand von anonymisierten Testdatensätzen.