Benutzer-Werkzeuge

Webseiten-Werkzeuge


project:backup

Unterschiede

Hier werden die Unterschiede zwischen zwei Versionen angezeigt.

Link zu dieser Vergleichsansicht

Beide Seiten der vorigen RevisionVorhergehende Überarbeitung
Nächste Überarbeitung
Vorhergehende Überarbeitung
project:backup [2026/03/03 09:26] torsten.roehlproject:backup [2026/03/03 10:51] (aktuell) torsten.roehl
Zeile 1: Zeile 1:
 ====== Projekt: Raspberry PI als Backupserver ====== ====== Projekt: Raspberry PI als Backupserver ======
- 
 [[raspberry_pi:einstiegskurs_raspberry_pi|  ☚ zurück - Einstiegskurs]] [[raspberry_pi:einstiegskurs_raspberry_pi|  ☚ zurück - Einstiegskurs]]
  
 +//In diesem Projekt wird aus einem **Raspberry Pi** ein zentraler **NFS-Backupserver** für ein lokales Netzwerk aufgebaut. Ziel ist eine saubere und technisch nachvollziehbare Trennung zwischen einem ausschließlich lesbaren Bereich und einem schreibbaren Datenbereich. {{ :raspberry_pi:nfs_2.png?250|}}
 +Dabei wird bewusst **keine Benutzer-Synchronisation zwischen Client und Server** eingesetzt. Stattdessen werden alle Schreibzugriffe serverseitig auf einen definierten Service-User abgebildet. Dadurch bleibt die Client-Konfiguration minimal, konsistent und unabhängig von lokalen UID-Strukturen.//
 +
 +====== Konzept ======
 +
 +Der Server stellt zwei Verzeichnisse bereit:
 +
 +  * ''/srv/nfs/public''  → nur lesend (''ro'')
 +  * ''/srv/nfs/data''    → lesend + schreibend (''rw'', Service-User 2000)
 +
 +{{ :raspberry_pi:nfs1.png?400 |}}
 +
 +Für das Datenverzeichnis wird ein technischer Service-User mit der ''UID/GID'' **2000** eingerichtet.  
 +Alle Schreibzugriffe werden mittels ''all_squash'' auf diesen Benutzer umgeleitet. Dadurch gehören sämtliche erzeugten Dateien immer demselben Systemkonto – unabhängig davon, welcher Client sie erstellt hat.
 +
 +Dieses Modell verhindert UID-Konflikte zwischen unterschiedlichen Linux-Systemen im Netzwerk und sorgt für ein eindeutiges Besitzmodell auf dem Server.
  
-===== Voraussetzungen ===== +Alle schreibenden Zugriffe auf ''/srv/nfs/data'' werden serverseitig auf ''UID/GID'' **2000** abgebildet (''all_squash'').
-  * SERVER: Mit ''IP'' ist die IP-Adresse des Servers gemeint. Dieser stellt Speicherplatz per NFS bereit. +
-  CLIENT: Rechner, der das exportierte Verzeichnis vom Server einbindet.+
  
-Diese Lösung sorgt dafür, dass alle Zugriffe serverseitig einheitlich als UID/GID 2000 gespeichert werden – unabhängig vom Benutzer auf dem Client.+<note important> 
 +**SERVER**   
 +Die IP-Adresse des Servers wird hier mit ''IP'' gekennzeichnet und muss im Kurs durch die tatsächliche IP-Adresse ersetzt werden. 
 +</note>
  
 +====== NFS Server ======
  
-===== NFS SERVER =====+Im Kurs steht der Server bereits zur Verfügung, sodass es primär darum geht, ihn korrekt einzubinden.   
 +Wer einen eigenen NFS-Server aufsetzen möchte, findet hier die vollständige Einrichtung.
  
 +++++ Einrichtung Server |
 <code bash> <code bash>
 sudo apt update sudo apt update
 sudo apt install -y nfs-kernel-server sudo apt install -y nfs-kernel-server
  
-# Service-User (einheitliche Server-Ownership)+# Service-User für schreibendes Share
 sudo groupadd -g 2000 nfsdata sudo groupadd -g 2000 nfsdata
 sudo useradd -u 2000 -g 2000 -M -r nfsdata sudo useradd -u 2000 -g 2000 -M -r nfsdata
  
-Export-Verzeichnis+Verzeichnisse anlegen 
 +sudo mkdir -p /srv/nfs/public
 sudo mkdir -p /srv/nfs/data sudo mkdir -p /srv/nfs/data
 +
 +# Rechte setzen
 +sudo chown -R root:root /srv/nfs/public
 +sudo chmod -R 755 /srv/nfs/public
 +
 sudo chown -R 2000:2000 /srv/nfs/data sudo chown -R 2000:2000 /srv/nfs/data
 sudo chmod -R 2775 /srv/nfs/data sudo chmod -R 2775 /srv/nfs/data
- 
  
 # ================================ # ================================
 # /etc/exports # /etc/exports
 # ================================ # ================================
-# alle Clients im IP/24 Netz 
-# alle Zugriffe -> UID/GID 2000 
-# root wird gesquasht 
  
-/srv/nfs/data  IP/24(rw,sync,no_subtree_check,all_squash,root_squash,anonuid=2000,anongid=2000)+/srv/nfs/public  IP/24(ro,sync,no_subtree_check,root_squash) 
 +/srv/nfs/data    IP/24(rw,sync,no_subtree_check,all_squash,root_squash,anonuid=2000,anongid=2000)
  
- +# anwenden
-nach dem Speichern anwenden:+
 sudo exportfs -ra sudo exportfs -ra
 sudo systemctl restart nfs-kernel-server sudo systemctl restart nfs-kernel-server
 sudo systemctl enable nfs-kernel-server sudo systemctl enable nfs-kernel-server
  
- +# prüfen
-aktive Exports prüfen (lokal am Server)+
 sudo exportfs -v sudo exportfs -v
 </code> </code>
  
 +Nach dem Neustart des Dienstes stellt der **Raspberry Pi** beide Verzeichnisse im Netzwerk bereit.  
 +Das öffentliche Verzeichnis ist ausschließlich lesbar, während im Datenverzeichnis alle Schreibzugriffe auf den Service-User 2000 abgebildet werden.
 +++++
  
 +====== NFS Client ======
  
-===== NFS CLIENT =====+Um die Freigaben zu verwenden, wird auf dem Client zunächst das notwendige Paket installiert.
  
-==== Verfügbare Exports anzeigen ==== +===== Verfügbare Exports anzeigen =====
- +
-Um zu sehen, welche Verzeichnisse der Server bereitstellt:+
  
 <code bash> <code bash>
Zeile 60: Zeile 82:
 </code> </code>
  
 +Der Befehl zeigt an, welche Verzeichnisse der Server exportiert.
  
-==== Manuell Mounten ====+===== Manuell Mounten ====
 + 
 +Für einen ersten Test werden lokale Mountpunkte angelegt und die Freigaben manuell eingebunden.
  
 <code bash> <code bash>
-sudo mkdir -p /mnt/nfs +sudo mkdir -p /mnt/public 
-sudo mount -t nfs -o rw,soft,timeo=50,retrans=3 IP:/srv/nfs/data /mnt/nfs+sudo mkdir -p /mnt/data 
 + 
 +sudo mount -t nfs -o ro IP:/srv/nfs/public /mnt/public 
 +sudo mount -t nfs -o rw,soft,timeo=50,retrans=3 IP:/srv/nfs/data /mnt/data
 </code> </code>
  
 +Das Verzeichnis ''/mnt/public'' ist nur lesbar.  
 +Im Verzeichnis ''/mnt/data'' können Dateien erzeugt werden, die serverseitig immer UID/GID 2000 gehören.
  
-==== Automatisch Mounten ====+===== Automatisch Mounten (/etc/fstab) ===== 
 + 
 +Damit der Client auch dann startet, wenn der Server nicht erreichbar ist, erfolgt die Einbindung per systemd-Automount in der ''/etc/fstab''.
  
 <code bash> <code bash>
-# ================================ +IP:/srv/nfs/public  /mnt/public  nfs  ro,_netdev,noatime,x-systemd.automount,nofail  0  0 
-/etc/fstab +IP:/srv/nfs/data    /mnt/data    nfs  rw,_netdev,noatime,x-systemd.automount,x-systemd.device-timeout=10s,x-systemd.idle-timeout=600,soft,timeo=50,retrans=3,nofail  0  0
-# ================================ +
- +
-IP:/srv/nfs/data  /mnt/nfs  nfs  _netdev,noatime,x-systemd.automount,x-systemd.device-timeout=10s,x-systemd.idle-timeout=600,soft,timeo=50,retrans=3,nofail  0  0 +
  
-# nach dem Speichern anwenden: 
 sudo systemctl daemon-reload sudo systemctl daemon-reload
 sudo mount -a sudo mount -a
 </code> </code>
  
 +Der Mount erfolgt nun erst beim ersten Zugriff.  
 +Ist der Server nicht erreichbar, blockiert der Bootvorgang nicht.
  
-===== Ergebnis =====+<note>**Ergebnis** 
  
 +  * /srv/nfs/public  → nur lesbar für alle Clients
 +  * /srv/nfs/data    → schreibbar, serverseitig UID/GID 2000
   * Client bootet auch wenn Server offline ist   * Client bootet auch wenn Server offline ist
   * Mount erfolgt erst bei Zugriff (automount)   * Mount erfolgt erst bei Zugriff (automount)
-  * Kein Boot-Blockieren 
-  * Timeouts verhindern Deadlock 
-  * Exportierte Verzeichnisse prüfbar mit ''exportfs -v'' oder ''showmount -e IP'' 
-  * Alle Dateien liegen serverseitig als UID/GID 2000 
   * Keine UID-Anpassung auf Clients erforderlich   * Keine UID-Anpassung auf Clients erforderlich
 +
 +Damit steht ein wartungsarmes Backup-System auf Basis eines **Raspberry Pi** zur Verfügung.
 +</note>
 +
 +====== Backup erstellen ======
 +
 +Der NFS-Server stellt lediglich den zentralen Speicher bereit.  
 +Die eigentlichen Backups werden auf den Clients erzeugt und anschließend in das Verzeichnis ''/mnt/data'' geschrieben.
 +
 +Im Kurs werden zwei einfache Verfahren verwendet:
 +
 +  * ''scp''   → einfache vollständige Kopie
 +  * ''rsync'' → effizientes inkrementelles Backup
 + 
 +===== Einfache Kopie mit scp =====
 +
 +<code bash>
 +core) torsten@hiketas:~ $ date +%Y-%m-%d_%H-%M-%S
 +2026-03-03_11-50-46
 +</code>
 +
 +<code bash>
 +scp -r /home/pi/daten /mnt/data/backup_$(date +%Y-%m-%d_%H-%M-%S)
 +</code>
 +
 +Es wird ein datumsbasierter Ordner erzeugt.  
 +Dieses Verfahren kopiert immer alle Dateien vollständig.
 +
 +
 +<note>Da das Verzeichnis mit ''nfs'' gemountet ist, wäre technisch auch ein einfaches ''cp'' ausreichend. Im Kurs wird jedoch zusätzlich ''scp'' verwendet, um zu zeigen, wie Backups auf andere Rechner übertragen werden können, die nicht per NFS eingebunden sind.</note>
 +===== Inkrementelles Backup mit rsync =====
 +
 +<code bash>
 +rsync -a --delete /home/pi/daten/ /mnt/data/backup_aktuell/
 +</code>
 +
 +Optionen:
 +
 +  * ''-a'' → Archivmodus (Rechte, Zeitstempel, Links)
 +  * ''--delete'' → entfernt Dateien im Ziel, die im Quellverzeichnis nicht mehr existieren
 +  * ''--dry-run''  führt **rsync** als Simulation aus und zeigt an, welche Änderungen vorgenommen würden, ohne tatsächlich Dateien zu kopieren oder zu löschen.
 +
 +====== Backupkonzept: Rotation und Automatisierung ======
 +
 +Ein Backup ist gut – mehrere Sicherungsstände sind besser. Ein verbreitetes Verfahren ist die **Rotation nach dem Round-Robin-Prinzip**. Dabei werden mehrere Backup-Ordner zyklisch überschrieben. So stehen mehrere Generationen zur Verfügung, ohne dass der Speicherplatz unbegrenzt wächst.
 +
 +Damit ein Backup-Konzept zuverlässig funktioniert, muss es außerdem automatisiert werden. Andernfalls wird es im Alltag häufig vergessen. Hierfür verwenden wir ''cron'', ein Standardwerkzeug zur zeitgesteuerten Ausführung von Aufgaben.
 +
 +===== Backup-Rotation (Round Robin Prinzip) =====
 +Beispiel mit **drei Generationen**: Dabei werden drei Sicherungsstände verwaltet, wobei bei jedem Durchlauf die älteste Sicherung gelöscht, die beiden vorhandenen um eine Position nach hinten verschoben und anschließend ein neues aktuelles Backup erzeugt wird.
 +
 +
 +<code bash>
 +#!/bin/bash
 +set -euo pipefail
 +
 +TARGET="/mnt/data"
 +SOURCE="/home/pi/daten"
 +
 +rm -rf "$TARGET/backup_3"
 +[ -d "$TARGET/backup_2" ] && mv "$TARGET/backup_2" "$TARGET/backup_3" || true
 +[ -d "$TARGET/backup_1" ] && mv "$TARGET/backup_1" "$TARGET/backup_2" || true
 +
 +rsync -a --delete "$SOURCE/" "$TARGET/backup_1/"
 +</code>
 +
 +{{ :raspberry_pi:backup_1.png?400 |}}
 +
 +
 +Ergebnis:
 +
 +  * ''backup_1'' → aktuelles Backup
 +  * ''backup_2'' → vorherige Version
 +  * ''backup_3'' → ältere Version
 +
 +Bei jedem Lauf wird die älteste Version gelöscht und die anderen rücken nach.
 +
 +===== Automatische Ausführung mit cron =====
 +
 +Skript speichern, z.B. als ''/home/pi/backup.sh'':
 +
 +<code bash>
 +chmod +x /home/pi/backup.sh
 +</code>
 +
 +Crontab öffnen:
 +
 +<code bash>
 +crontab -e
 +</code>
 +
 +Beispiel: tägliches Backup um 22:00 Uhr:
 +
 +<code bash>
 +0 22 * * * /home/pi/backup.sh
 +</code>
 +
 +Damit wird das Rotationsskript jeden Tag automatisch gestartet.
 +
 +<note>
 +**Ergebnis**
 +
 +  * Backups werden vom Client erzeugt
 +  * Speicherung erfolgt zentral auf dem NFS-Server
 +  * Mehrere Sicherungsstände durch Rotation
 +  * Automatische Ausführung über cron
 +  * Keine zusätzliche Backup-Software erforderlich
 +</note>
project/backup.1772529967.txt.gz · Zuletzt geändert: von torsten.roehl