Veröffentlicht am Oktober 23, 2024

Die Annahme, dass Daten allein durch den Standort Schweiz sicher sind, ist ein gefährlicher Trugschluss, der lokale Grossrisiken wie Hochwasser oder Stromausfälle ignoriert.

  • Ein Backup im selben Kanton oder in der gleichen Gefahrenzone ist bei einem regionalen Ereignis wertlos.
  • Echte Datensouveränität wird nur von 100% schweizerischen Anbietern garantiert, nicht von Hyperscalern, die ausländischem Recht unterstehen.

Empfehlung: Setzen Sie auf eine georedundante Strategie, die Ihre Daten über verschiedene topografische und infrastrukturelle Zonen der Schweiz verteilt – die einzige wahre Daten-Alpenfestung.

Für Schweizer Unternehmen ist die Datenhoheit heilig. Der Gedanke, sensible Informationen auf Servern im Ausland zu speichern, die dem Zugriff fremder Behörden ausgesetzt sind, ist für viele ein absolutes No-Go. Diese Konzentration auf die nationale Souveränität führt jedoch oft zu einem kritischen blinden Fleck: der Gefahr durch grossflächige, *interne* Katastrophen. Ein grosser Brand, ein hundertjähriges Hochwasser oder ein flächendeckender Stromausfall kümmert sich nicht um Kantonsgrenzen oder den Ruf der Schweiz als sicherer Hafen.

Die übliche Antwort – ein Backup an einem zweiten Standort – kratzt nur an der Oberfläche. Der wahre Unterschied zwischen einem funktionierenden Disaster-Recovery-Plan und einem katastrophalen Datenverlust liegt nicht darin, *ob* Sie ein Backup haben, sondern *wo* und *wie* es konzipiert ist. Einfach ein zweites Rack im Nachbargebäude oder sogar in der nächsten Stadt zu mieten, kann sich als nutzlos erweisen, wenn beide Orte von derselben Störung betroffen sind. Der Unterschied zwischen einem einfachen Backup und einer echten Disaster-Recovery-Lösung liegt in der strategischen Planung gegen plausible, grossflächige Ausfallszenarien.

Doch was, wenn die Lösung nicht darin besteht, die Schweiz zu verlassen, sondern ihre einzigartige Geografie intelligenter zu nutzen? Was, wenn die wahre Datensicherheit darin liegt, die topografische Resilienz unseres Landes zu verstehen und Backups nicht nur an einem anderen Ort, sondern in einer völlig anderen Risikozone zu platzieren? Dieser Artikel durchbricht die Illusion der lokalen Sicherheit und zeigt, wie Sie eine echte Daten-Alpenfestung errichten. Wir analysieren die realen Gefahren, von Latenzproblemen über Cyberangriffe bis hin zu den Fallstricken bei der Wiederherstellung, und liefern konkrete Strategien für eine undurchdringbare Datensicherung innerhalb der Schweiz.

Dieser Leitfaden führt Sie durch die fundamentalen Fragen und strategischen Entscheidungen, die für den Aufbau einer robusten, georedundanten Backup-Architektur in der Schweiz unerlässlich sind. Jeder Abschnitt beleuchtet eine kritische Komponente, um Ihnen eine solide Grundlage für den Schutz Ihrer wertvollsten Ressource zu geben: Ihrer Daten.

Warum ein Backup im gleichen Kanton bei einem Grossbrand nutzlos sein kann?

Die Vorstellung, dass ein Backup-Rechenzentrum im selben Kanton oder Ballungsraum ausreicht, ist ein weit verbreiteter Irrglaube. Grossflächige Ereignisse wie Überschwemmungen, langanhaltende Stromausfälle oder auch grosse Chemieunfälle halten sich nicht an administrative Grenzen. Wenn Ihr Primär- und Ihr Backup-Standort beide im Einzugsgebiet desselben Flusses, am selben Stromnetz oder in der gleichen Windrichtung eines potenziellen Industrieunfalls liegen, haben Sie keinen redundanten Schutz, sondern lediglich eine doppelte Schwachstelle.

Die jüngsten Ereignisse in der Schweiz untermauern diese Gefahr eindrücklich. An der Moesa bei Lumino wurde im Juni 2024 ein Abflusswert von 649 m³/s gemessen, was einem 50- bis 100-jährlichen Ereignis entspricht und die höchste Gefahrenstufe 5 erreichte. Ein solches Ereignis kann ganze Täler und Wirtschaftsregionen lahmlegen. Ein Backup in 20 km Entfernung, aber im selben Flusstal, wäre ebenso betroffen gewesen. Die topografische Realität der Schweiz mit ihren engen Tälern und grossen Flusssystemen schafft vernetzte Risikozonen.

Topografische Darstellung der Schweiz mit hervorgehobenen Hochwasser-Risikozonen entlang der Flüsse

Wie die Visualisierung der Gefahrenzonen zeigt, folgen die Risiken geografischen Mustern, nicht politischen. Wahre strategische Distanz bedeutet, Rechenzentren in unterschiedlichen Einzugsgebieten, auf verschiedenen Seiten der Alpen oder zumindest in von separaten Infrastrukturnetzen versorgten Regionen zu platzieren. Die Frage ist nicht „Wie weit ist es weg?“, sondern „Ist es von einer anderen, unabhängigen Infrastruktur abhängig und liegt es in einer separaten internen Gefahrenzone?“.

Wie synchronisieren Sie Daten über 100km Distanz ohne Latenzprobleme für die Anwender?

Die Entscheidung für eine grosse geografische Distanz zwischen den Rechenzentren wirft sofort eine technische Kernfrage auf: Wie lassen sich Daten über Hunderte von Kilometern replizieren, ohne dass die Leistung für die Benutzer spürbar leidet? Die Antwort liegt in der Wahl der richtigen Replikationstechnologie, die auf die spezifischen Anforderungen Ihrer Anwendungen abgestimmt ist. Hierbei stehen sich zwei grundlegende Methoden gegenüber: die synchrone und die asynchrone Replikation.

Die synchrone Replikation bietet einen Recovery Point Objective (RPO) von null, was bedeutet, dass kein Datenverlust auftritt. Jeder Schreibvorgang muss auf beiden Systemen bestätigt werden, bevor er abgeschlossen wird. Diese Sicherheit hat ihren Preis: Die Latenz, bedingt durch die Lichtgeschwindigkeit in Glasfaserkabeln, schränkt die maximale Distanz erheblich ein. In der Praxis ist diese Methode nur für Distanzen unter ca. 50 km sinnvoll, etwa zwischen Zürich und Zug. Bei grösseren Distanzen, wie zwischen Genf und Zürich (ca. 280 km), würde die Wartezeit die Anwendungsperformance inakzeptabel verlangsamen.

Für echte georedundante Setups über grosse Distanzen ist die asynchrone Replikation die pragmatische Wahl. Hier werden die Daten zuerst auf dem primären System gespeichert und dann mit einer minimalen Verzögerung an den sekundären Standort übertragen. Dies führt zu einem RPO von einigen Sekunden bis Minuten, was für die meisten Anwendungen absolut akzeptabel ist. Die Latenz hat dabei keinen Einfluss auf die Performance der Primäranwendung. Moderne Technologien wie Data-Streaming und WAN-Optimierung minimieren diesen potenziellen Datenverlust weiter. Der Schlüssel liegt in der Klassifizierung Ihrer Systeme: Nur die allerwichtigsten, transaktionalen Datenbanken benötigen eventuell eine synchrone Lösung, während der Grossteil der Systeme mit einer asynchronen Strategie besser und sicherer bedient ist.

Die folgende Tabelle zeigt eine klare Gegenüberstellung der beiden Ansätze, basierend auf einer Analyse gängiger Backup-Strategien, die für die Schweizer Topografie relevant sind.

Vergleich von synchroner und asynchroner Replikation nach Distanz
Replikationstyp RPO Optimale Distanz Schweizer Beispiel Latenzauswirkung
Synchron 0 <50km Zürich-Zug Hoch
Asynchron >0 50-300km Genf-Zürich (280km) Niedrig

Hyperscaler oder lokaler Bunker: Wer garantiert Ihnen, dass keine ausländische Behörde mitliest?

Die Verlockung von Hyperscalern wie Amazon Web Services, Microsoft Azure oder Google Cloud ist gross. Sie bieten scheinbar unendliche Skalierbarkeit und fortschrittliche georedundante Optionen auf Knopfdruck. Doch für Schweizer Unternehmen, für die Datenhoheit nicht verhandelbar ist, verbirgt sich hier ein fundamentales Problem: das Souveränitäts-Paradox. Selbst wenn Ihre Daten in einem Rechenzentrum auf Schweizer Boden liegen, untersteht der Betreiberkonzern (z.B. ein US-Unternehmen) weiterhin der Gerichtsbarkeit seines Heimatlandes. Gesetze wie der US CLOUD Act ermöglichen es US-Behörden, auf Daten zuzugreifen, unabhängig vom Speicherort.

Die einzige wirkliche Garantie gegen solche Zugriffe ist die Wahl eines Anbieters, der dem Schweizer Recht vollständig und ausschliesslich verpflichtet ist. Wie Experten der Organisation Swiss Made Software betonen, ist die entscheidende Frage die der Eigentümerschaft und des Betriebs.

Die einzige echte Garantie ist ein Anbieter, der zu 100% in Schweizer Besitz ist, mit Schweizer Personal und Hauptsitz.

– Schweizer IT-Security Experten, Swiss Made Software Organisation

Ein solcher Anbieter kann vertraglich zusichern, dass keine Daten an ausländische Stellen herausgegeben werden, da er nicht deren Jurisdiktion unterliegt. Dies gilt nicht nur für die eigentlichen Nutzdaten, sondern auch für Metadaten, Logs und Support-Daten. Wenn das Support-Team eines US-Anbieters von Indien aus auf Ihre Systeme zugreift, ist die Kette der Datensouveränität bereits durchbrochen. Die Wahl eines lokalen „Bunkers“ ist also keine rein technische, sondern eine strategisch-juristische Entscheidung zum Schutz Ihres geistigen Eigentums und Ihrer Kundendaten.

Ihre Checkliste zur Gewährleistung der Datensouveränität

  1. Eigentumsverhältnisse klären: Wem gehört der Mutterkonzern des Anbieters und in welchem Land ist er registriert?
  2. Personalstandort prüfen: Welchem Recht untersteht das Support-Personal und wo sitzt es physisch?
  3. Speicherort aller Daten verifizieren: Wo werden Metadaten und Logs gespeichert – auch diese müssen in der Schweiz bleiben.
  4. Vertragliche Garantien einfordern: Gibt es explizite Klauseln im Vertrag, die den Zugriff ausländischer Behörden ausschliessen?
  5. Zertifizierungen prüfen: Verfügt der Anbieter über anerkannte Labels wie „swiss hosting“ oder weist er FINMA-Konformität nach?

Die Gefahr, wenn Sie versehentlich den Virus live auf das Backup-System spiegeln

Eine der heimtückischsten Bedrohungen der modernen IT ist Ransomware. Die Angreifer zielen nicht mehr nur darauf ab, Ihre Live-Systeme zu verschlüsseln, sondern auch darauf, Ihre Backups zu kompromittieren. Eine simple, kontinuierliche Spiegelung Ihrer Daten auf ein Backup-System bietet hier keinen Schutz. Im Gegenteil: Sie replizieren die Verschlüsselung durch den Virus in Echtzeit und machen so Ihr Backup unbrauchbar, genau in dem Moment, in dem Sie es am dringendsten benötigen. Die Bedrohung ist real und wächst stetig, wie die Auswertung von Falconfeeds zeigt, die für 2024 bereits über 100 dokumentierte Ransomware-Angriffe auf Schweizer Unternehmen verzeichnete.

Ein moderner Backup-Ansatz muss daher über die reine Replikation hinausgehen und Mechanismen zur Isolierung und Unveränderbarkeit der Daten integrieren. Die Lösung liegt in sogenannten „immutable“ oder „air-gapped“ Backups. „Immutable“ bedeutet, dass eine einmal geschriebene Backup-Kopie für einen bestimmten Zeitraum nicht mehr verändert oder gelöscht werden kann – auch nicht von einem Administrator-Konto, das von Angreifern übernommen wurde. „Air-gapped“ geht noch einen Schritt weiter und bezeichnet eine physische oder logische Trennung des Backups vom Netzwerk, sodass es für einen Angreifer unerreichbar ist.

Fallstudie: Ransomware-Angriff auf die Schneider Software AG

Im September 2024 wurde das Schweizer Unternehmen Schneider Software AG Opfer eines Angriffs der Ransomware-Bande „Ransomhub“. Die Folgen waren gravierend: Das Unternehmen war nach dem Angriff mehrere Tage weder telefonisch noch per E-Mail erreichbar. Die Angreifer hatten nicht nur Daten verschlüsselt, sondern laut Berichten auch rund 300 GB an Geschäftsunterlagen entwendet. Dieser Fall zeigt, dass eine reine Wiederherstellung nicht ausreicht; der Schutz vor der Kompromittierung des Backups selbst ist entscheidend.

Die bewährte 3-2-1-Regel wurde für diese neuen Bedrohungen zur 3-2-1-1-0-Regel erweitert:

  • 3 Kopien: Behalten Sie mindestens drei Kopien Ihrer Daten (Original plus zwei Backups).
  • 2 Medien: Speichern Sie die Kopien auf zwei unterschiedlichen Medientypen (z.B. Festplatte und Band).
  • 1 externe Kopie: Lagern Sie mindestens eine Kopie extern (georedundant).
  • 1 unveränderbare (immutable) oder getrennte (air-gapped) Kopie: Halten Sie eine Kopie vor, die nicht überschrieben oder infiziert werden kann.
  • 0 Fehler: Führen Sie regelmässige Wiederherstellungstests durch, um die Integrität Ihrer Backups zu überprüfen.

Diese zusätzliche „1“ für eine unveränderbare Kopie ist heute keine Option mehr, sondern eine Notwendigkeit im Kampf gegen Ransomware.

Wie lange dauert der „Schwenk“ auf das Sekundär-Rechenzentrum in der Realität?

Viele Unternehmen wiegen sich in falscher Sicherheit, weil sie einen Disaster-Recovery-Plan (DRP) haben. Sie gehen davon aus, dass bei einem Ausfall des primären Rechenzentrums ein einfacher „Schwenk“ auf den sekundären Standort innerhalb von Minuten erfolgt. Die Realität ist jedoch weitaus komplexer und zeitaufwändiger. Das Recovery Time Objective (RTO) – die maximal tolerierbare Ausfallzeit – ist keine einzelne Zahl, sondern die Summe mehrerer, oft unterschätzter Phasen.

Der Prozess beginnt nicht mit dem Ausfall, sondern mit seiner Detektion. Hochwertige Monitoring-Systeme können einen Ausfall in wenigen Minuten melden, aber oft dauert es länger, bis die Ursache klar ist und Fehlalarme ausgeschlossen sind. Danach folgt die Entscheidungsphase: Das Krisenteam muss zusammenkommen, die Situation bewerten und die formelle Entscheidung zur Auslösung des DRP treffen – ein Prozess, der je nach Eskalationspfad 15 bis 60 Minuten dauern kann. Erst dann beginnt der eigentliche technische Failover. Selbst mit perfekt vorbereiteten Automations-Skripten benötigt der Hochlauf der Systeme Zeit. Der kritischste und oft längste Schritt ist der Datenkonsistenz-Check nach der Wiederherstellung, der je nach Datenmenge bis zu zwei Stunden in Anspruch nehmen kann. Erst wenn sichergestellt ist, dass die Daten intakt sind, kann der Traffic umgeleitet werden.

IT-Spezialisten im Kontrollraum während eines Disaster Recovery Prozesses

Diese Phasen summieren sich schnell auf mehrere Stunden, nicht Minuten. Die Erwartung eines sofortigen Failovers ist unrealistisch und gefährlich. Aus diesem Grund fordern Regulierungsbehörden wie die FINMA rigorose Tests. Wie in den Rundschreiben der Eidgenössischen Finanzmarktaufsicht festgehalten wird, müssen Finanzinstitute regelmässige, unangekündigte Desaster-Recovery-Tests durchführen, um sicherzustellen, dass die theoretischen Pläne auch in der Praxis funktionieren.

Die folgende Tabelle, basierend auf einer Analyse von Prozessen für Backup und Disaster Recovery, zeigt eine realistische Aufschlüsselung des Zeitbedarfs.

Realistische Zeitabschätzung der RTO-Phasen beim Disaster Recovery
Phase Zeitbedarf Kritische Faktoren
Detektion der Störung 5-30 Min Monitoring-Qualität
Entscheidung zur Auslösung 15-60 Min Eskalationsprozess
Automation-Skripte 10-30 Min Vorbereitungsgrad
Datenkonsistenz-Check 30-120 Min Datenmenge
Traffic-Umleitung 15-45 Min DNS-Propagation

Wie sichern Sie Ihre IT-Hardware gegen Hochwasser, wenn Ihr Standort in einer Gefahrenzone liegt?

Die physische Sicherheit Ihrer IT-Infrastruktur ist das Fundament jeder Backup-Strategie. Liegt Ihr Rechenzentrum oder Serverraum in einer ausgewiesenen Gefahrenzone, sind selbst die besten digitalen Schutzmassnahmen nutzlos, wenn die Hardware buchstäblich unter Wasser steht. Die Schweiz ist, entgegen der landläufigen Meinung, keine Insel der Seligen in Bezug auf Naturkatastrophen. Insbesondere Hochwasser stellen eine wiederkehrende und ernstzunehmende Gefahr dar. Die BAFU-Hochwasserstatistik zeigt, dass im Juni 2024 an der Rhone bei Reckingen und an der Reuss bei Andermatt Ereignisse auftraten, deren Intensität einem 100- bis 300-jährlichen Hochwasser entsprach. Bei einem solchen Ereignis sind ganze Regionen betroffen.

Der erste Schritt zur Absicherung ist eine ehrliche Risikoanalyse. Das Bundesamt für Umwelt (BAFU) stellt detaillierte Gefahrenkarten für die ganze Schweiz zur Verfügung. Diese Karten klassifizieren Gebiete nach ihrem Risiko: rot (erhebliche Gefahr), blau (mittlere Gefahr) und gelb (geringe Gefahr). Unternehmen müssen diese Karten konsultieren, um ihre eigene Gefährdung objektiv einzuschätzen. Ignoranz ist hier keine Option. Historische Ereignisse wie die Überschwemmungen in Brig (1993 und 2000) oder der Brand in Schweizerhalle (1986), der den Rhein verseuchte, zeigen, wie schnell eine lokale Katastrophe regionale Ausmasse annehmen kann.

Befindet sich ein Standort in einer roten oder blauen Zone, sind bauliche Massnahmen unumgänglich. Dazu gehören die Positionierung von Serverräumen in höheren Stockwerken statt im Keller, die Installation von wasserdichten Türen und Wänden oder die Errichtung von Schutzdämmen. Die ultimative Schutzmassnahme bleibt jedoch die geografische Redundanz. Ein georedundanter Backup-Standort muss zwingend ausserhalb derselben hydrologischen und geologischen Gefahrenzone liegen. Eine Firma in einem Walliser Tal sichert ihre Daten idealerweise nicht in einem anderen Walliser Tal, sondern im Mittelland oder auf der anderen Seite der Alpen, um eine echte Entkopplung der Risiken zu gewährleisten.

Strom, Internet, Daten: Wo haben Sie den „Single Point of Failure“ übersehen?

Eine georedundante Architektur mit zwei Rechenzentren an weit entfernten Standorten scheint auf den ersten Blick absolut sicher. Doch die wahre Resilienz einer solchen Konfiguration liegt im Detail. Oft lauern übersehene Abhängigkeiten, die beide Standorte gleichzeitig lahmlegen können – die gefürchteten Single Points of Failure (SPOF). Diese können technischer, aber auch organisatorischer oder menschlicher Natur sein.

Ein klassischer SPOF ist die Stromversorgung. Auch wenn beide Rechenzentren über USV und Diesel-Generatoren verfügen, sind sie letztlich vom nationalen Hochspannungsnetz von Swissgrid abhängig. Eine grossflächige Netzstörung, die das ganze Land betrifft, kann beide Standorte gleichzeitig gefährden, wenn die Treibstoffvorräte nicht für mehrere Tage ausgelegt sind. Ähnliches gilt für die Internetverbindung: Nutzen beide Rechenzentren denselben Backbone-Carrier oder sind ihre Glasfaserleitungen durch denselben Tunnel (z.B. Gotthard) geführt? Ein Schaden an dieser zentralen Infrastruktur würde beide Standorte isolieren. Provider-Diversität ist hier das Gebot der Stunde.

Praxisbeispiel: Kritische Infrastruktur-Abhängigkeit in der Schweiz

Ein Anbieter wie Open Circle, der georedundante Backups in Bern und Zürich betreibt, muss solche Abhängigkeiten genau analysieren. Die physische Trennung der Rechenzentren muss durch eine logische und infrastrukturelle Entkopplung ergänzt werden. Dies bedeutet nicht nur separate Strom- und Netzanbindungen, sondern auch isolierte Backup-Server und eine mehrfache Speicherung an verschiedenen Standorten, um sicherzustellen, dass bei der Kompromittierung eines Servers die anderen sicher bleiben.

Doch die grösste Schwachstelle ist oft der menschliche Faktor. Ein fehlerhaftes Software-Update, das gleichzeitig auf beiden Systemen ausgerollt wird, kann die gesamte Infrastruktur lahmlegen. Ein Administrator, der versehentlich eine kritische Konfiguration auf beiden Clustern ändert, hebelt die Redundanz aus. Deshalb sind organisatorische Massnahmen wie gestaffelte Rollouts (das Update wird zuerst an Standort A, und erst nach einer Testphase an Standort B ausgerollt) und das 4-Augen-Prinzip bei kritischen Änderungen unerlässlich. Ein SPOF-Audit muss alle Ebenen umfassen:

  • Infrastruktur: Sind Strom, Kühlung und Netzwerkanbindung an beiden Standorten wirklich unabhängig?
  • Provider: Werden unterschiedliche Internet-Carrier und Cloud-Dienstleister genutzt?
  • Software: Gibt es einen Prozess für gestaffelte Software-Rollouts, um globale Fehler zu vermeiden?
  • Mensch: Ist das 4-Augen-Prinzip für kritische Änderungen implementiert?

Das Wichtigste in Kürze

  • Allein der Standort Schweiz schützt nicht vor internen, grossflächigen Katastrophen wie Hochwasser oder Stromausfällen.
  • Echte Datensouveränität erfordert einen zu 100% schweizerischen Anbieter, um den Zugriff ausländischer Behörden (z.B. via US CLOUD Act) auszuschliessen.
  • Eine moderne Backup-Strategie muss „immutable“ (unveränderbare) Kopien beinhalten, um sich wirksam vor Ransomware zu schützen.

Wie priorisieren Sie den Neustart Ihrer Systeme, damit Vertrieb und Produktion zuerst wieder laufen?

Im Katastrophenfall ist Zeit Geld – im wahrsten Sinne des Wortes. Nicht alle IT-Systeme sind für den Geschäftsbetrieb gleich wichtig. Ein Ausfall des ERP-Systems, das die Produktion steuert, hat eine unmittelbarere und gravierendere finanzielle Auswirkung als der Ausfall eines internen Wikis. Ein pauschaler Wiederanlauf aller Systeme ist ineffizient und verzögert die Wiederherstellung der kritischsten Geschäftsprozesse. Die entscheidende Grundlage für einen geordneten Neustart ist eine Business Impact Analysis (BIA).

Die BIA ist kein technisches, sondern ein geschäftliches Analyseinstrument. Sie definiert für jede Anwendung zwei Schlüsselkennzahlen: das Recovery Time Objective (RTO), also die maximal tolerierbare Ausfallzeit, und das Recovery Point Objective (RPO), den maximal akzeptablen Datenverlust. Auf Basis dieser Analyse werden die Systeme in Prioritätsstufen eingeteilt. Systeme mit dem höchsten Geschäftseinfluss und den geringsten Toleranzen (z.B. Produktionssteuerung, Online-Shop) werden zuerst wiederhergestellt.

Die Wiederherstellung folgt einer klaren Abhängigkeitskette. Zuerst muss die grundlegende Netzwerk-Infrastruktur (Switches, Router) funktionieren. Darauf aufbauend werden die zentralen Security- und Authentifizierungsdienste wie das Active Directory hochgefahren. Erst dann können die Datenbanken gestartet werden, die wiederum die Voraussetzung für die eigentlichen Geschäftsanwendungen wie ERP- (Produktion) und CRM-Systeme (Vertrieb) sind. Ohne diese strukturierte Vorgehensweise kommt es zu einem chaotischen Neustart, bei dem Anwendungen nicht starten können, weil ihre abhängigen Dienste noch nicht verfügbar sind. Eine klare Priorisierung ist der schnellste Weg zurück zur Normalität.

Die folgende Tabelle, die auf typischen Abhängigkeiten in Unternehmensumgebungen basiert, wie sie in Analysen zum Disaster Recovery definiert werden, illustriert eine solche Priorisierungs-Reihenfolge.

Beispiel für eine System-Wiederanlauf-Reihenfolge nach Priorität
Priorität System Abhängigkeiten Geschäftsauswirkung/Stunde
1 Netzwerk-Infrastruktur Keine Totalausfall
2 Active Directory/Security Netzwerk Totalausfall
3 Datenbanken AD, Netzwerk CHF 50’000
4 ERP/Produktion DB, AD, Netzwerk CHF 35’000
5 CRM/Vertrieb DB, AD, Netzwerk CHF 20’000

Um im Ernstfall schnell und geordnet handeln zu können, ist es entscheidend, die Prioritäten Ihrer Systeme bereits im Voraus klar zu definieren und zu dokumentieren.

Der Aufbau einer uneinnehmbaren Daten-Alpenfestung ist keine einmalige Aufgabe, sondern ein strategischer Prozess. Er erfordert eine ehrliche Analyse der Risiken, eine sorgfältige Planung der Architektur und die Wahl der richtigen Partner. Schützen Sie Ihr Unternehmen nicht nur vor externen Bedrohungen, sondern auch vor den oft übersehenen Gefahren im eigenen Land. Fordern Sie eine professionelle Analyse Ihrer aktuellen Backup-Strategie an, um Schwachstellen aufzudecken und eine Lösung zu entwerfen, die den Namen „Swiss-made“ wirklich verdient.

Geschrieben von Urs Baumann, Diplomierter Sicherheitsingenieur und Brandschutzexperte VKF. Spezialisiert auf Arbeitssicherheit (EKAS), Umweltschutz und technische Gebäudeausrüstung. Experte für den Schutz von Serverräumen vor physikalischen Gefahren wie Feuer, Wasser und Hitze.