Strategie Client-Backups auf Unraid Server

  • Servus zusammen,

    ich packe das Thema jetzt mal hier rein, könnte denke ich zwar auch wo anders hin, aber als Ziel der Backups dient ja dann immerhin Unraid, d.h. es dürfte hier doch nicht komplett fehl am Platz sein.
    Ich setze nächste Woche so ziemlich alle meine PCs neu auf und damit einher will ich jetzt auch endlich eine vernünftige Backup-Strategie angehen.

    Meine Ausgangslage:

    • Haupt-PC:

      • Linux, aktuell noch Fedora 31, ab nächster Woche dann Fedora 32
      • Windows 10 Pro 64bit
    • PC-Freundin:

      • Linux, aktuell noch Ubuntu Budgie 19.10, ab nächster Woche dann Ubuntu Budgie 20.04
    • Laptop:

      • Windows 10 Pro 64bit

    Diese Clients gilt es jetzt regelmäßig zu sichern.
    Die Linuxe backup einerseits mittels Timeshift das System direkt auf eine interen HDD, damit ich im Falle eines OS-Problems relativ einfach einen vorherigen Zustand wieder herstellen kann.
    Zusätzlich sollen jetzt die User-Daten, die sowohl im Home aber auch auf anderen, gemounteten Platten liegen, regelmäßig auf meinem Unraid Server gesichert werden.
    Mein Unraid-Server schläft die meiste Zeit, müsste also für die Backups aufgeweckt werden.
    Ein wöchentliches Backup sollte eigentlich reichen, zur Not kann man ja immer noch manuell anstoßen.

    Habe mir bereits einige Programm unter Linux angeschaut, aber so 100% überzeugt hat mich bisher eigentlich nur Vorta bzw. das dahinterliegende BorgBackup.
    Das gute an Vorta ist, es läuft auch einwandfrei unter Windows.

    Jetzt zu meinem Problem: Es gibt leider direkt über CA keinen BorgBackup Container, den ich aber zwingend brauche. BorgBackup setzt auf eine Client/Server-Struktur, d.h. der Server muss ebenfalls BorgBackup haben, um die Serverschnittstelle bereit zu stellen.
    Auf Docker-Hub gibt es einige Container, aber da kenne ich mich 1. zu wenig aus, wie ich das richtig in Unraid einbinde und 2. weiß ich nicht, woran ich genau erkenne, ob der Container vertrauensvoll ist.

    Näher ins Auge gefasst hätte ich bisher diesen hier: https://hub.docker.com/r/ebrithil/borg-server
    Ist zwar relativ jung, erhält aber regelmäßig Updates.

    Wie würdet ihr die Sache angehen? Habt ihr eventuell selbst eine ähnliche Backup-Struktur?

  • Was hälst du denn von Duplicati. Den Container installieren und dann dort die Jobs erstellen... Nutze ich für eine nicht homogene Umgebung und klappt super.

    TC

    Ausfallsicherheit ist keine Datensicherheit, Datensicherheit ist keine Datensicherung.




    Media-Server: Emby 4.x.x.x
    Clients:
    3x Matrix auf RaspBerry Pi 3 - LE
    1x NUC W10 Kodi 19.x
    1x FireRV Stick 4K
    diverse Android Geräte mit Emby-App

    NAS: unRaid 6.x.x diverse Docker/VMs
    TV-Server: TVH mit Kathrein EXIP414/E

  • nein geht damit nicht...

    Ausfallsicherheit ist keine Datensicherheit, Datensicherheit ist keine Datensicherung.




    Media-Server: Emby 4.x.x.x
    Clients:
    3x Matrix auf RaspBerry Pi 3 - LE
    1x NUC W10 Kodi 19.x
    1x FireRV Stick 4K
    diverse Android Geräte mit Emby-App

    NAS: unRaid 6.x.x diverse Docker/VMs
    TV-Server: TVH mit Kathrein EXIP414/E

  • Danke schön einmal für die Antworten, aber habe mich wohl nicht klar genug ausgedrückt.

    Ich bin auf der Suche nach einer Lösung, um die Userdaten zu sichern, also kein komplettes Systemabbild.

    Dafür hätte ich dann auch gerne eine Lösung, du unter Linux und Windows gleich ist.

    Bei duplicati verstehe ich noch nicht so ganz, wie da der Ablauf ist. Also ich habe den Docker Container unter unraid installiert und dann? Duplicati auch nochmal bei den Clients? Und wer stößt dann das Backup an? Habe das bisher so verstanden, dass der Server das macht, was bei mir aber nicht geht, da der schläft.

    Bisher scheint mir Vorta bzw. halt BorgBackup dafür am ehesten geeignet, aber halt das Problem mit einem vertrauenswürdigen Docker.

  • naja, wenn nur die userdaten,
    Dann reicht ja auch ein einfaches rsync, oder für Windows mit Oberfläche freefilesync (oder auch da rsync), da brauchst auch keinen extra Dienst auf dem unraid oder als dicker sondern als Ziel eine normale Freigabe...

    da gibt es tausend varianten :)
    Auch über nextcloud gibt es da wohl Möglichkeiten...

  • Danke schön einmal für die Antworten, aber habe mich wohl nicht klar genug ausgedrückt.

    Ich bin auf der Suche nach einer Lösung, um die Userdaten zu sichern, also kein komplettes Systemabbild.

    Dafür hätte ich dann auch gerne eine Lösung, du unter Linux und Windows gleich ist.

    Bei duplicati verstehe ich noch nicht so ganz, wie da der Ablauf ist. Also ich habe den Docker Container unter unraid installiert und dann? Duplicati auch nochmal bei den Clients? Und wer stößt dann das Backup an? Habe das bisher so verstanden, dass der Server das macht, was bei mir aber nicht geht, da der schläft.

    Bisher scheint mir Vorta bzw. halt BorgBackup dafür am ehesten geeignet, aber halt das Problem mit einem vertrauenswürdigen Docker.

    nein du brauchst bei duplicati auf den cliebts nichts installieren... es braucht nur ein share in dem die daten sind die gesichert werden sollen, also die quelle client 1 und dann die quelle client 2. egal welches OS nur die share mit entsprechenden rechten sind notwendig... und dann natürlich ein ziel share...

    Ausfallsicherheit ist keine Datensicherheit, Datensicherheit ist keine Datensicherung.




    Media-Server: Emby 4.x.x.x
    Clients:
    3x Matrix auf RaspBerry Pi 3 - LE
    1x NUC W10 Kodi 19.x
    1x FireRV Stick 4K
    diverse Android Geräte mit Emby-App

    NAS: unRaid 6.x.x diverse Docker/VMs
    TV-Server: TVH mit Kathrein EXIP414/E

  • In der aktuellen c't gibts eine paar schöne Artikel zum Thema BackUp. Hauptaugenmerk ist hierbei, dass das BackUp doch bitte auch gefälligst sicher vor Verschlüsselungstrojanern alá Emotet sein sollen.

    Auf Basis dieser Artikel werde ich meine BackUp-Strategie etwas abändern.
    Ist Zustand:
    * Windows Rechner sichern täglich über Duplicati und sftp mit Passwortschutz auf meinem OMV-Rechner
    * Mein Windows Rechner hat zur SSD noch eine großen DatenhaldeHDD, macht dort täglich ein schnell-Backup per Robocopy
    * Das BackUp vom OMV-Rechner ziehe ich "regelmässig" auf eine von zwei HDDs im wechsel bei denen sich immer(!) eine in der Arbeit befindet. Das passiert allerdings von meinem Windowsrechner aus. Der BackUp-Ordner auf OMV ist per SMB als "nur lesen" freigegeben. Ich habe mir ein PowerShell-Skript geschrieben, welches den VeraCrypt-Container auf der HDD einbindet und das BackUp von OMV zieht.

    In den Artikeln wird empfohlen, dass sich der BackUp-Rechner die Daten ziehen soll. Wenn sich auf dem zu sichernden Rechnern irgendwo die Zugangsdaten zu dem BackUp-Archiv befinden, sind diese potentiell auch für Schädlinge einsehbar. Grundsätzlich wird auch empfohlen, einen separaten Rechner zu verwenden auf den nur Zeug lauft und laufen darf, dass man unbedingt braucht. Ansonsten soll das Dingens verrammelt sein.
    Ich werde davon etwas abweichen:

    * in der c't ist eine Synchronisierungssoftware empfohlen, mit dieser wird in Zukunft die Daten auf dem OMV-Rechner in einem BackUp-Verzeichnis synchron gehalten werden.
    * täglich wird davon ein auf OMV laufendes Duplicati ein inkrementelles BackUp erstellen
    * dieses wird dann auch wieder auf die ext. HDDs gesichert (und das hoffentlich regelmässiger)

    Ich glaube die beiden Knackpunkte sind hierbei immer, dass trotz eines eindringenden Virus/Trojaners/... oder Elementarschäden mindestens ein BackUp bestehen bleibt.

    Zitat von root2

    Merke: Das "S" in "IoT" steht für Sicherheit!

  • Unter Linux kann man:

    Sichern:
    tar -cvf mybackup.tar .kodi/

    Entpacken:

    tar -xvf mybackup.tar

    Natürlich ist das dann ein Backup, aber kein sehr effizientes. Keine Deduplikation, kein inkrementelles, ...
    Nicht so richtig das, was ich Suche.

    Dann reicht ja auch ein einfaches rsync, oder für Windows mit Oberfläche freefilesync (oder auch da rsync), da brauchst auch keinen extra Dienst auf dem unraid oder als dicker sondern als Ziel eine normale Freigabe...

    Bin bisher mit rsync noch nicht so firm, will auf alle Fälle nur inkrementelle Backups, da immer alles zu sichern zu lange dauern wird. Was ich mir bereits angeschaut habe, ist "Back in time". Das nutzt im Hintergrund ja auch rsyn, nur hat es den Vorteil, dass es bei den Snapshots gleich gebliebene Dateien nur hart verlinkt und nicht erneut vorhält.
    Problem waren hierbei aber die Rechte, um auf den Unraid zu sichern. Müsste damit das klappt (soweit ich das zumindest verstanden habe) immer die jeweiligen Client-Benutzer auch genau so in Unraid anlegen. Das gleiche Problem dürfte ich auch mit rsync bekommen, oder?

    es braucht nur ein share in dem die daten sind die gesichert werden sollen, also die quelle client 1 und dann die quelle client 2. egal welches OS nur die share mit entsprechenden rechten sind notwendig

    Hm, aber dann fällt diese Lösung aus zwei Gründen bei mir flach:

    1. Der Server schläft, wenn ich dann den Client hochfahre, müsste auch jedesmal der Server geweckt werden, nur um dann häufig festzustellen, dass noch kein Backup nötig ist. Weckt den Server also unnötig oft.
    2. Die zu sichernden Daten müssen im Netzwerk freigeben sein, sonst kann duplicati nicht darauf zugreifen. Das will ich ehrlich gesagt vermeiden, da dann auch so die Freigaben da sind.

    Sollte ich das Vorgehen von duplicati falsch verstanden haben, dann bitte um Berichtigung.

  • Die zu sichernden Daten müssen im Netzwerk freigeben sein, sonst kann duplicati nicht darauf zugreifen. Das will ich ehrlich gesagt vermeiden, da dann auch so die Freigaben da sind.

    Duplicati unterstützt eine Menge an Protokollen, u.A. auch (s)ftp. Und wie gesagt würde ich das nach aktuellen Stand eher so machen, dass sich der BackUp-Server die Daten holt. Denn sobald der Client irgendwie auf eine Freigabe zugreifen muss, hat er irgendwie Zugriff darauf und damit auch potentiell Schadsoftware - Duplicati wird mittlerweile immer beliebter, warum sollte ich als Kryptotrojanerprogrammierer nicht mal gucken, ob ich auch die Konfigfiles davon finden und auswerten kann?

    Duplicati hat aber auch einen großen Vorteil in Sachen inkrementelles BackUp:
    Es schmeißt ältere inkrementelle BackUp "smart" weg. Wenn ich das richtig im Kopf habe heißt das: du hast ein inkrementelles BackUp für die letzten 7 Tage täglich, 4 Wochen wöchentlich, 12 Monate moantlich und ab da jährlich eines. Das reduziert den Datenmüll doch nicht unerheblich.

    Der Server schläft, wenn ich dann den Client hochfahre, müsste auch jedesmal der Server geweckt werden, nur um dann häufig festzustellen, dass noch kein Backup nötig ist. Weckt den Server also unnötig oft.

    Mach ein tägliches BackUp. Den Clienten wirst im Regelfall doch nur ein bis zweimal täglich hochfahren, ich glaube das lässt sich verkraften.
    Und Duplicati merkt sich m.W. auch lokal, wann das letzte BackUp gefahren wurde.

    Zitat von root2

    Merke: Das "S" in "IoT" steht für Sicherheit!

  • Danke schön einmal für die Antworten, aber habe mich wohl nicht klar genug ausgedrückt.

    Ich bin auf der Suche nach einer Lösung, um die Userdaten zu sichern, also kein komplettes Systemabbild.

    Veeam Agent for Windows Und Veeam Agent for Linux würde ich dir sehr empfehlen!
    Du kannst Backups Datei- oder Image-Basiert machen. Viel simpler als andere Lösungen. Einschränkung: Ein Job pro Rechner
    Aber meiner Meinung nach, kein Problem.

    Meine Konfig

    Spoiler anzeigen

    Server:

    • Intel Pentium G4560 2x 3.50GHz
    • Gigabyte GA-B250M-DS3H Intel B250
    • 16 GB RAM DDR4
    • SSD Cache
    • HDDs
    • unRAID mit der aktuellsten Stable-Version


    Kodi:

    • Nvidia Shield TV (2017)
    • KODi immer mit der aktuellsten Stable-Version

Jetzt mitmachen!

Sie haben noch kein Benutzerkonto auf unserer Seite? Registrieren Sie sich kostenlos und nehmen Sie an unserer Community teil!