Nextcloud im Notfall: Zwischen Hochverfügbarkeit und Datenintegrität
Wer Nextcloud einsetzt, tut das meist aus gutem Grund: Die Plattform vereint Dateiablage, Kollaboration und Kalender in einer Umgebung, die dem Unternehmen gehört – kein externer Cloud-Dienst, keine Lizenzfallen. Doch so verlockend die Freiheit der Self-Hosted-Lösung auch sein mag: Sie bringt eine Verantwortung mit sich, der man sich stellen muss. Denn was passiert, wenn der Server ausfällt? Wenn ein Administrator versehentlich eine falsche Konfiguration lädt? Wenn Ransomware die Daten verschlüsselt? In vielen Organisationen gleicht die Nextcloud-Instanz einem digitalen Nervensystem – und genau deshalb ist die Frage nach dem Ausfallschutz so brisant.
Der Markt für Cloud-Technologien ist hart umkämpft, aber Nextcloud hat sich als ernstzunehmender Player etabliert. Kein Wunder: Die Software ist erweiterbar, datenschutzkonform und lässt sich auf eigener Infrastruktur betreiben. Doch die Kehrseite dieser Freiheit ist, dass der Betreiber für den Betriebsalltag selbst verantwortlich zeichnet. Ein Administrator aus den USA mag andere Prioritäten setzen, aber in Deutschland, wo die DSGVO und die Frage nach der Souveränität der Daten eine enorme Rolle spielen, ist das Notfallmanagement kein optionales Add-on, sondern eine zentrale Säule des Betriebs. Nicht zuletzt deshalb, weil die Erwartungen der Nutzer mit denen an kommerzielle Clouds vergleichbar sind: Verfügbarkeit rund um die Uhr, keine Datenverluste, kurze Wiederherstellungszeiten.
Die Architektur verstehen – und ihre Schwachstellen
Bevor man über Notfallmanagement spricht, muss man das System verstehen: Nextcloud ist im Kern eine PHP-Anwendung, die auf einem Webserver (Apache oder Nginx) läuft, eine Datenbank (meist MariaDB, PostgreSQL oder SQLite im Kleinstfall) und einen Speicherort für die Dateien benötigt. Dazu kommen optionale Komponenten wie Redis für Caching, Elasticsearch für Volltextsuche oder ein externer Objektspeicher wie S3. Das Problem: Jede dieser Komponenten kann zur Fehlerquelle werden.
Ein interessanter Aspekt ist, dass die meisten Ausfälle nicht durch die Software selbst verursacht werden, sondern durch die Umgebung. Ein abgestürzter Datenbank-Server, eine volle Festplatte, ein fehlkonfigurierter Reverse Proxy – die Liste ist lang. Und genau hier setzt das Notfallmanagement an: Es geht nicht darum, alle theoretischen Risiken auszuschließen, sondern praktikable Maßnahmen zu definieren, die im Ernstfall greifen. Man muss sich klarmachen: Eine Nextcloud-Instanz, die über Jahre gewachsen ist, enthält oft nicht nur Dateien, sondern auch Kontakte, Termine, Aufgaben und Chatverläufe. Ein Totalverlust wäre für viele Teams existenzbedrohend.
Dabei zeigt sich immer wieder, dass Unternehmen zwar in die Anschaffung von USV und redundanter Hardware investieren, aber die wirklich kritischen Punkte übersehen: die Konfiguration der Datenbank, die Konsistenz von Dateien und Datenbankeinträgen, sowie die Möglichkeit, die Umgebung schnell und zuverlässig wiederherzustellen. Ein Rechenzentrumsausfall mag spektakulär sein, aber viel häufiger sind kleine, schleichende Fehler – ein fehlender Index in der Datenbank, ein zu geringes Timeout oder eine inkompatible PHP-Version nach einem Update. Das Notfallmanagement muss also beides abdecken: die großen Katastrophen und die alltäglichen Pannen.
Backup-Strategien jenseits des naiven Dateikopierens
Der erste Impuls vieler Admins ist, einfach die Datenverzeichnisse zu sichern und die Datenbank zu dumpen. Das funktioniert – zumindest auf den ersten Blick. Aber wehe, der Dump wird während einer laufenden Transaktion erstellt oder die Dateien sind inkonsistent. Nextcloud speichert Metadaten in der Datenbank und referenziert darauf. Stimmen die Dateien nicht mit den Datenbankeinträgen überein, hat man nach der Wiederherstellung ein Durcheinander aus Fehlermeldungen und nicht auffindbaren Dateien. Ein häufig übersehener Punkt ist die Konsistenzsicherung: Man muss entweder den Dienst vor dem Backup anhalten (was in Produktivumgebungen selten möglich ist) oder auf Dateisystem-Snapshots setzen. Letztere sind bei vielen Storage-Systemen (etwa ZFS, Btrfs, LVM) verfügbar und erlauben einen konsistenten Zustand ohne Ausfallzeit.
Noch komplexer wird es, wenn man einen S3-kompatiblen Objektspeicher als primären Storage verwendet. Dann liegen die Dateien außerhalb der Nextcloud-Instanz, und das Backup muss sowohl den Objektspeicher als auch die Datenbank umfassen. Manche Admins kopieren die Daten von S3 nach S3 – also Bucket-Replikation –, was aber nichts nützt, wenn ein böswilliger Angriff auch den sekundären Bucket erwischt. Ein externes, unabhängiges Backup ist hier die einzig sinnvolle Lösung. Also: Backup-Medien, die nicht permanent mit dem Netz verbunden sind, oder ein Air-Gap-Ansatz.
Nicht zuletzt sollte man die eigene Notfall-Dokumentation nicht unterschätzen. Wie oft fragt man sich: „Wo war nochmal das Passwort für die Verschlüsselung? Welche PHP-Version lief da? Welche Nextcloud-Version war installiert?“ Eine saubere Dokumentation ist mindestens so wichtig wie die technische Umsetzung. Und sie muss regelmäßig aktualisiert werden, denn nichts ist ärgerlicher, als im Krisenfall mit veralteten Notizen zu arbeiten.
Hochverfügbarkeit: Cluster, Lastverteilung und Failover
Backups sind die eine Seite der Medaille, die andere ist die Hochverfügbarkeit. Nextcloud selbst bietet einige Mechanismen, um Ausfälle abzufedern, aber die müssen richtig konfiguriert werden. Eine typische Architektur für den produktiven Einsatz besteht aus mehreren App-Servern, die hinter einem Load Balancer laufen, einer gemeinsamen Datenbank (oder einem Cluster) und einem gemeinsamen Dateispeicher – meist über NFS oder einen verteilten Storage wie Ceph. Klingt elegant, aber die Umsetzung ist knifflig.
Das größte Problem: Many-Reads vs. Few-Writes. Nextcloud verarbeitet viele Lesezugriffe, aber Schreibvorgänge auf die Datenbank müssen serialisiert werden. Wenn man mehrere App-Server hat, muss der Locking-Mechanismus funktionieren. Nextcloud verwendet dafür standardmäßig dateibasiertes Locking, was auf einem NFS-Share schnell zu Konflikten führt. Besser ist der Einsatz von Redis oder einer Datenbank-basierten Lock-Verwaltung. Ohne diese Optimierung kann das schönste Cluster schnell in einem Chaos aus inkonsistenten Dateiversionen enden.
Ein interessanter Aspekt ist das Failover auf Datenbankebene. MariaDB mit Galera-Cluster bietet eine gute Basis, aber die Latenzen zwischen den Knoten müssen niedrig sein – bei einem geografisch verteilten Setup (z.B. zwei Rechenzentren) wird das schnell zur Herausforderung. Nextcloud selbst kann mit Read-Only-Betrieb umgehen, wenn eine Datenbank ausfällt, aber Schreibzugriffe sind dann blockiert. Für viele Teams ist das akzeptabel, solange die Lesezeit kurz bleibt. Aber man muss sich fragen: Darf der Dienst im Notfall nur lesend sein, oder braucht man echte Write-Availability? Letzteres erfordert in der Regel einen synchronen Replikationsmechanismus und eine entsprechende Netzwerkanbindung.
Praxis-Tipp: Viele Admins scheuen den Aufwand eines MariaDB-Clusters und setzen stattdessen auf eine einzelne Datenbank und ein asynchrones Backup mit Point-in-Time-Recovery. Das ist in vielen Fällen ausreichend – vorausgesetzt, die Recovery-Time ist definiert und wird regelmäßig getestet. Denn was nützt eine Hochverfügbarkeitsarchitektur, wenn das Failover nicht funktioniert, weil die Konfiguration nicht mitgewachsen ist? Also: Auch den Load Balancer, den Health-Check und die Session-Persistence regelmäßig prüfen.
Storage-Backends und ihre Fallstricke
Nextcloud unterstützt eine Vielzahl von Storage-Backends: von lokalen Verzeichnissen über NFS und SMB bis hin zu S3, OpenStack Swift oder IBM Cloud Object Storage. Die Wahl des richtigen Backends hat direkten Einfluss auf die Notfallstrategie. Ein lokales Verzeichnis ist einfach, aber ein Hardware-Defekt kann die Daten unwiederbringlich zerstören. NFS ist zentralisierter, aber die Netzwerkabhängigkeit birgt Risiken – und wer kennt nicht die Geschichten von NFS-Störungen, die zu halben Mounts führen und die Datenbank in den Wahnsinn treiben?
Interessant ist der Trend zu S3-Backends. Sie sind skalierbar, robust und bieten oft integrierte Versionierung oder Replikation. Doch auch hier gibt es Fallen: Die Latenz kann bei Schreibzugriffen höher sein, und die Kosten für API-calls können unerwartet steigen. Vor allem aber muss man die Konsistenz zwischen Datenbank und Objektspeicher sicherstellen. Wenn ein Upload fehlschlägt und die Datenbank den Dateieintrag bereits vermerkt hat, entsteht eine Phantom-Referenz. Nextcloud hat zwar Mechanismen, um solche Inkonsistenzen zu bereinigen (z.B. den occ files:scan), aber bei großen Instanzen kann das zur Geduldsprobe werden.
Eine Empfehlung aus der Praxis: Wer auf S3 setzt, sollte unbedingt die Objekt-Versionierung aktivieren. Das hilft gegen versehentliches Löschen und überschriebene Dateien – allerdings nicht gegen Ransomware, denn die kann auch versionierte Dateien verschlüsseln, wenn sie Zugriff auf die API hat. Auch eine Lifecycle-Regel, die alte Versionen nach einer bestimmten Frist löscht, kann Teil der Notfallstrategie sein. Aber Achtung: Lifecycle-Regeln sind wie ein Timer – man muss genau kalkulieren, wie lange man alte Versionen vorhalten möchte, um im Ernstfall noch ein sauberes Recovery zu ermöglichen.
Die Wiederherstellung: Der härteste Test
Ein Backup zu erstellen ist die eine Sache – es auch wiederherzustellen, eine ganz andere. In vielen Unternehmen ist die Rücksicherung der blinde Fleck. Man vertraut auf die Backup-Software, hat vielleicht sogar einen Monitoring-Check, der prüft, ob der letzte Backup-Job erfolgreich war. Aber ob die Daten tatsächlich konsistent sind und die Anwendung nach der Rücksicherung startet, das stellt man erst im Ernstfall fest. Oder sollte man sagen: im Nicht-Ernstfall, denn wenn der Ernstfall eintritt, ist es zu spät.
Ein strukturiertes Recovery-Testing sollte zur Routine gehören. Das bedeutet nicht, dass man jede Woche die gesamte Umgebung zurückrollt. Aber ein jährlicher oder halbjährlicher Disaster-Recovery-Test, bei dem die Nextcloud auf einem separaten System aus den Backups aufgebaut wird, ist absolut empfehlenswert. Dabei zeigt sich oft, dass die Dokumentation unvollständig ist oder dass man bestimmte Komponenten – wie den TLS-Schlüssel oder die Nextcloud-Konfiguration – separat sichern muss. Auch die Datenbankreplikation kann man testen, indem man den sekundären Knoten zum Primärknoten macht und prüft, ob die Anwendung fehlerfrei läuft.
Ein weiterer wichtiger Punkt ist die Zeit. Wie lange dauert es, bis die Umgebung wieder vollständig funktioniert? Das sollte im RTO (Recovery Time Objective) festgehalten sein. Wer ein RTO von einer Stunde hat, aber seine Datenbank ein Dump von 20 GB ist, der stundenlang lädt, muss entweder die Pipeline verbessern oder die Erwartung anpassen. Realistische Zielwerte sind kein Zeichen von Schwäche, sondern von professionellem Management. Denn wenn das Management nicht weiß, wie lange ein Systemausfall dauert, kann es auch keine fundierten Entscheidungen über Investitionen treffen.
Ein kleiner Tipp zwischendurch: Denken Sie an die Metadaten. Nextcloud speichert nicht nur Dateien, sondern auch Shares, Versionen, Kommentare, Einstellungen. All das muss nach der Rücksicherung wieder da sein. Eine einfache Prüfung: Legen Sie nach der Wiederherstellung eine Datei an, teilen Sie sie mit einem Testbenutzer und prüfen Sie, ob die Berechtigungen stimmen. Klingt banal, aber genau solche Tests decken die meisten Fehler auf.
Monitoring als Frühwarnsystem
Notfallmanagement beginnt nicht im Desaster, sondern im Alltag. Ein gutes Monitoring kann viele Ausfälle verhindern, bevor sie kritisch werden. Für Nextcloud gibt es verschiedene Ansätze: Die Software selbst liefert über die occ-Konsole Informationen zum Status – etwa zur Datenbank-Verbindung, zur Kollaborations-Erweiterung oder zur geplanten Aufgabenverarbeitung (Cronjobs). Ein regelmäßiger Aufruf von occ status und occ check kann per Skript in ein Monitoring-Tool wie Nagios, Icinga oder Prometheus eingespeist werden.
Eine wesentliche Metrik ist die Antwortzeit der Applikation. Steigt die Latenz plötzlich an, kann das auf eine Überlastung der Datenbank oder des Storage-Backends hindeuten. Auch der Speicherplatz für Dateien und die Datenbank sollte überwacht werden – eine volle Festplatte kann die Anwendung komplett lahmlegen. Ebenso wichtig: der Cron-Job. Nextcloud benötigt die Hintergrundaufgaben für Versionierung, Cache-Invalidierung und Kollaboration. Wenn der Cron-Job nicht läuft, sammeln sich Aufgaben an, und die Performance sinkt dauerhaft. Ein Alert, wenn der letzte Cron-Durchlauf älter als 15 Minuten ist, ist eine einfache, aber effektive Maßnahme.
Nicht zuletzt spielt das Logging eine Rolle. Nextcloud schreibt Logs in unterschiedliche Dateien, die man mit Log-Analyse-Tools auswerten kann. Fehler im Log sind oft Vorboten größerer Probleme. Ein wiederkehrender Database-Lock-Timeout weist auf Konfigurationsprobleme hin. Oder eine PHP-Warning aufgrund von Speicherlimit deutet auf zu groß dimensionierte Uploads hin. Wer diese Signale ignoriert, lebt gefährlich. Das Monitoring sollte also nicht nur auf „System läuft/System läuft nicht“ hinauslaufen, sondern auch die Gesundheit der Applikation im Blick haben.
Compliance, DSGVO und die Frage der Datenhoheit
In Deutschland kommt noch eine weitere Dimension hinzu: die rechtliche. Nextcloud gilt als Vorzeigeprodukt im Bereich der Datensouveränität, weil die Betreiber die volle Kontrolle über die Daten haben. Aber diese Kontrolle verpflichtet gleichzeitig zur Sorgfalt. Die DSGVO verlangt, dass personenbezogene Daten vor Verlust und unbefugtem Zugriff geschützt werden. Ein Backup, das unverschlüsselt auf einem externen Server liegt, könnte zum Problem werden. Auch die Frage der Löschfristen spielt eine Rolle: Wie lange werden Backup-Versionen vorgehalten? Was passiert mit personenbezogenen Daten inücksicherten Snapshots?
Ein oft übersehener Aspekt ist das Kontrollgremium. Viele Firmen vergessen, dass die Daten ihrer Nutzer auch in der Sicherung den gleichen Schutz genießen müssen. Wenn ein Mitarbeiter ausscheidet und seine Nextcloud-Daten gelöscht werden, müssen diese auch aus dem Backup verschwinden – oder zumindest nach einer definierten Frist. Das klingt nach Aufwand, ist aber durch eine klare Backup- und Löschrichtlinie umsetzbar. Man kann Backups nach einer bestimmten Haltefrist (z.B. 30 Tage) automatisiert löschen. Alternativ arbeitet man mit differenziellen Backups, die eine punktuelle Löschung ermöglichen, auch wenn dieser Ansatz bei Datenbanken nicht trivial ist.
Ein weiteres Thema: die Verschlüsselung. Nextcloud bietet optional eine serverseitige Verschlüsselung an, die die Dateien auf dem Storage verschlüsselt. Für den Notfall bedeutet das: Der Schlüssel muss ebenfalls gesichert sein. Ohne Schlüssel sind die Backups nutzlos. Also: Schlüsselmanagement ist Teil des Notfallplans. Und zwar nicht als lose Textdatei auf dem Admin-Desktop, sondern in einem zentralen Vault wie HashiCorp Vault oder KeePass mit geteiltem Zugriff. Denn wenn der Schlüssel verloren geht, war das Backup umsonst.
Ransomware und andere Bedrohungen der digitalen Infrastruktur
Die größte Bedrohung für Nextcloud-Instanzen ist heute nicht ein Hardwaredefekt, sondern Ransomware. Ein Angriff, der die Dateien verschlüsselt, kann selbst sorgsame Backup-Strategien überlisten, wenn die Backups ebenfalls erreichbar sind. Deshalb sollte man über eine Immutable Backup-Strategie nachdenken: Backups auf Medien, die schreibgeschützt sind, oder in S3-Objektspeichern mit Write-Once-Read-Many (WORM) Policies. Das macht die Daten aus dem Backup unveränderbar.
Nextcloud selbst hat Funktionen, die die Erkennung von Ransomware erleichtern: Die App empfiehlt regelmäßige Scans auf ungewöhnlich viele Änderungen oder eine Häufung von Dateien mit unbekannter Endung. In den Logs sind Massen-Uploads und Löschungen sichtbar. Wer diese Alarme ernst nimmt und im Notfall die Verbindung trennt, kann den Schaden minimieren. Aber das erfordert eine aufmerksame Administration und vor allem: eine Reaktionskette. Was tun, wenn der Alarm eingeht? Wer informiert wen? Gibt es einen automatisierten Shutdown des Dienstes? Diese Abläufe müssen vorher definiert und geübt sein.
Ein kleiner Exkurs: In vielen kleinen und mittleren Unternehmen ist der Admin oft auch der Ansprechpartner für alles – und allein. Das macht die Situation schwierig: Ein Einzelkämpfer kann nicht 24/7 auf Monitoring-Alarme achten. Hier kann ein Managed-Ansatz helfen: externe Dienstleister, die das Monitoring übernehmen oder ein Teil der Backup-Infrastruktur bereitstellen. Das klingt nach höheren Kosten, ist aber im Schadensfall oft günstiger als der Datenverlust oder die Lösegeldzahlung an Erpresser.
Kosten-Nutzen-Abwägung: Wie viel Notfallmanagement ist sinnvoll?
Nicht jedes Unternehmen braucht ein geoclustertes Setup mit Ceph und MariaDB-Galera. Die Aufwände steigen exponentiell mit der geforderten Verfügbarkeit. Eine realistische Einschätzung der Anforderungen ist der erste Schritt. Für ein Team von fünf Personen, das ab und zu Dateien teilt, reicht vielleicht ein tägliches Backup auf eine externe Festplatte, die im Brandschutztresor liegt. Für eine Organisation mit 500 Mitarbeitern, die Nextcloud als zentrale Kollaborationsplattform nutzt, sieht die Welt anders aus.
Eine Faustregel aus der Praxis: Die Kosten für Backup und Recovery sollten in einem sinnvollen Verhältnis zum Wert der Daten stehen. Dabei geht es nicht nur um Anschaffungskosten, sondern auch um den Aufwand für Wartung, Test und Dokumentation. Ein komplexes System, das niemand versteht, ist im Notfall wertlos – da ist ein einfaches, durchdachtes Backup-Konzept besser. Ein interessanter Aspekt ist die Frage nach der Personal-Expertise. Viele Firmen haben Spezialisten für Nextcloud eingestellt oder ausgebildet, aber wenn diese Person das Unternehmen verlässt, verschwindet oft das Wissen über die Notfallprozeduren. Deshalb: Dokumentation nicht als lästige Pflicht, sondern als Investition in die Zukunft betrachten.
Die Entscheidung für oder gegen eine bestimmte Architektur hängt auch von der geschäftlichen Kontinuität ab. Wenn Nextcloud Teil des Business-Critical-Systems ist (etwa im Bildungssektor oder im Gesundheitswesen), sind Stundenlange Ausfälle nicht akzeptabel. In anderen Bereichen mag eine Downtime von einem Werktag verkraftbar sein. Wichtig ist, dass diese Entscheidung auf Management-Ebene getroffen und dokumentiert wird. Denn wenn der Notfall eintritt und das System einen Tag offline ist, darf niemand die Techniker überraschen, die dann mit dem Rücken zur Wand arbeiten.
Der menschliche Faktor
Alle technischen Maßnahmen nützen wenig, wenn die Administratoren sie nicht anwenden können oder wollen. Burnout und Überlastung sind in der IT-Branche keine Seltenheit. Ein gut gemeinter Notfallplan, der komplexe Schritt-für-Schritt-Anleitungen enthält, wird im Ernstfall schnell zur Nervenprobe. Besser ist es, die Prozeduren so weit wie möglich zu automatisieren und die verbleibenden manuellen Schritte auf das absolute Minimum zu reduzieren. Und das alles sollte in regelmäßigen Abständen geübt werden – nicht nur am Schreibtisch, sondern im Team, vielleicht sogar mit einem simulierten Szenario („Stell dir vor, die Netzwerkkarte des Backup-Servers ist durchgebrannt!“).
Ein weiterer Punkt: Die Kommunikation. Wenn der Ernstfall eintritt, müssen alle Beteiligten wissen, was sie zu tun haben. Wer meldet den Vorfall? Wer informiert die Nutzer? Wer kümmert sich um die externe Kommunikation (etwa bei Datenschutzverletzungen)? Diese Aufgaben sollten im Vorfeld verteilt werden. Eine Notfall-Kontaktliste, die regelmäßig aktualisiert wird, ist ein einfacher, aber effektiver Baustein. Und sie sollte auch die Telefonnummern der Dienstleister enthalten – etwa des Rechenzentrums oder des Storage-Anbieters.
Nicht zuletzt: Niemand sollte sich allein auf die Technik verlassen. Ein gesundes Misstrauen gegenüber den eigenen Sicherungen ist angebracht. Selbst wenn das Backup log sagt „Erfolg“, kann ein Dateisystemfehler die Konsistenz beeinträchtigen. Deshalb: stichprobenartige Prüfungen, Restore-Tests und auch ein Blick auf die Logs der Backup-Software sollten zur Routine gehören. So vermeidet man böse Überraschungen.
Fazit: Kein Perfektionismus, aber ein solides Fundament
Nextcloud ist ein großartiges Werkzeug, aber es ist kein Selbstläufer. Wer es betreibt, muss sich der Verantwortung bewusst sein. Ein gutes IT-Notfallmanagement für Nextcloud besteht aus mehreren Schichten: einem robusten Backup (mit Konsistenz und Test), einer für die Anforderungen angemessenen Hochverfügbarkeit, einem wachsamen Monitoring und einer klaren Dokumentation. Und das alles eingebettet in die rechtlichen und organisationalen Rahmenbedingungen des eigenen Unternehmens.
Der Ton in diesem Artikel ist bewusst grundsätzlich, aber auch ein bisschen pragmatisch: Es geht nicht um Perfektion, sondern um die bestmögliche Vorbereitung. Denn in der Praxis wird nicht der perfekte Plan siegen, sondern derjenige, der im Ernstfall funktioniert. Und der wird nur funktionieren, wenn man ihn testet, anpasst und immer wieder hinterfragt. Nextcloud ist ein lebendiges System – das Notfallmanagement sollte es auch sein.
Ein letzter Hinweis: Vergessen Sie nie die kleinen Dinge. Ein fehlender SSH-Schlüssel, ein abgelaufenes Zertifikat, eine falsche Umgebungsvariable – das sind die typischen Fallstricke bei der Wiederherstellung. Ein Backup ohne diese Details ist ein lahmes Versprechen. Also: Prüfen Sie Ihre Konfiguration, sichern Sie die Secrets und halten Sie die Notizen aktuell. Und wenn Sie einmal das Gefühl haben, alles sei zu viel, dann denken Sie daran: Jedes Unternehmen beginnt mit einem ersten Schritt. Der erste Schritt zum guten Notfallmanagement ist, ihn anzugehen.