2023-06-23 16:04:19 +02:00
---
2023-10-25 22:26:17 +02:00
# pbs_*
pbs_datastores :
- name : zfs_backup
path : /backup/pbs_data
gc_schedule : "sat 19:00"
pbs_prune_jobs :
- name : standard
schedule : "sat 18:15"
store : zfs_backup
keep_last : 1
keep_hourly : 3
keep_daily : 3
pbs_permissions :
- user : user_pve5@pbs
datastore : zfs_backup
role : DatastoreBackup
pbs_users :
- name : user_pve5
2024-07-09 17:35:56 +02:00
password : "{{ lookup('viczem.keepass.keepass', 'pbs_pve_user', 'password') }}"
2023-10-25 22:26:17 +02:00
realm : pbs
# rpool ist unverschlüsselt als Boot-Medium
# entschlüsseln nach Boot mit: sudo zpool import -d /dev/disk/by-id/ -a && sudo zfs mount -a -l
## backup
### sudo zpool create -o ashift=12 -o feature@encryption=enabled -O encryption=on -O keylocation=prompt -O keyformat=passphrase backup /dev/disk/by-id/ata-TOSHIBA_MG09ACA18TE_Z1B0A28LFJDH
# mgrote.zfs_manage_datasets
2023-11-29 21:15:50 +01:00
### mgrote_zfs_extra
2023-10-25 22:26:17 +02:00
# Variablen für mgrote.zfs_health/trim/scrub/zed/arc_mem/ sind zusammengefasst unter zfs_extra_*
zfs_datasets : # DatenPools werden hier nicht verwaltet
# rpool - System-Datasets
- dataset : rpool
state : present
compression : zstd
sync : disabled
xattr : sa
dnodesize : auto
atime : on # noqa yaml[truthy]
snapdir : hidden
reservation : 1G
refreservation : 10G
2023-12-04 14:48:02 +01:00
acltype : posix
2023-10-25 22:26:17 +02:00
- dataset : rpool/ROOT
state : present
refreservation : 10G
- dataset : rpool/ROOT/pbs-1
state : present
refreservation : 10G
2023-12-04 14:43:04 +01:00
acltype : posix # https://docs.ansible.com/ansible-core/2.14/playbook_guide/playbooks_privilege_escalation.html#risks-of-becoming-an-unprivileged-user ; sonst kann die dotfiles-Rolle kein setfacl machen
2023-10-25 22:26:17 +02:00
# backup-pool
- dataset : backup/pbs_data
state : present
quota : 1TB
- dataset : backup/pve5
state : present
canmount : off # noqa yaml[truthy]
# Variablen für mgrote.zfs_health/trim/scrub/zed/arc_mem/ sind zusammengefasst unter zfs_extra_*
zfs_extra_arc_max_size : "4294967296" # 4GB in Bytes
zfs_extra_zfs_pools :
- name : "rpool"
systemd_timer_schedule : "*-01,04,07,10-01 23:00" # jeden ersten eines jeden Quartals
- name : "backup"
systemd_timer_schedule : "*-01,04,07,10-01 23:00"
2023-11-29 21:15:50 +01:00
### mgrote_zfs_sanoid
2023-10-25 22:26:17 +02:00
sanoid_snaps_enable : true
2024-08-19 23:27:48 +02:00
2023-10-25 22:26:17 +02:00
## syncoid
sanoid_syncoid_destination_host : true
2024-07-09 17:35:56 +02:00
sanoid_syncoid_ssh_privkey : "{{ lookup('viczem.keepass.keepass', 'sanoid_syncoid_private_key', 'notes') }}"
2023-10-25 22:26:17 +02:00
sanoid_syncoid_timer : '*-*-* *:00:00' # jede Stunde
sanoid_syncoid_bwlimit : 50M # 30MB/s
sanoid_syncoid_datasets_sync :
- source_host : 192.168 .2 .16 # pve5, weil pbs den fqdn nicht auflösen kann
destination_mount_check : backup
destination_dataset : backup/pve5/pve_backup
2023-11-29 22:24:57 +01:00
source_dataset : hdd_data/pve_backup
2023-10-25 22:26:17 +02:00
- source_host : 192.168 .2 .16 # pve5, weil pbs den fqdn nicht auflösen kann
destination_mount_check : backup
destination_dataset : backup/pve5/videos
2023-11-29 22:24:57 +01:00
source_dataset : hdd_data/videos
2023-10-25 22:26:17 +02:00
- source_host : 192.168 .2 .16 # pve5, weil pbs den fqdn nicht auflösen kann
destination_mount_check : backup
destination_dataset : backup/pve5/music
2023-11-29 22:24:57 +01:00
source_dataset : hdd_data/music
2023-10-25 22:26:17 +02:00
- source_host : 192.168 .2 .16 # pve5, weil pbs den fqdn nicht auflösen kann
destination_mount_check : backup
destination_dataset : backup/pve5/tmp
2023-11-29 22:24:57 +01:00
source_dataset : hdd_data/tmp
2023-10-25 22:26:17 +02:00
- source_host : 192.168 .2 .16 # pve5, weil pbs den fqdn nicht auflösen kann
destination_mount_check : backup
destination_dataset : backup/pve5/archiv
2023-11-29 22:24:57 +01:00
source_dataset : hdd_data/archiv
2023-10-25 22:26:17 +02:00
- source_host : 192.168 .2 .16 # pve5, weil pbs den fqdn nicht auflösen kann
destination_mount_check : backup
destination_dataset : backup/pve5/bilder
2023-11-29 22:24:57 +01:00
source_dataset : hdd_data/bilder
2023-10-25 22:26:17 +02:00
- source_host : 192.168 .2 .16 # pve5, weil pbs den fqdn nicht auflösen kann
destination_mount_check : backup
destination_dataset : backup/pve5/scans
2023-11-29 22:24:57 +01:00
source_dataset : hdd_data/scans
2023-10-25 22:26:17 +02:00
- source_host : 192.168 .2 .16 # pve5, weil pbs den fqdn nicht auflösen kann
destination_mount_check : backup
destination_dataset : backup/pve5/restic
2023-11-29 22:24:57 +01:00
source_dataset : hdd_data/restic
2023-10-25 22:26:17 +02:00
- source_host : 192.168 .2 .16 # pve5, weil pbs den fqdn nicht auflösen kann
destination_mount_check : backup
destination_dataset : backup/pve5/backup
2023-11-29 22:24:57 +01:00
source_dataset : hdd_data/backup
2023-10-25 22:26:17 +02:00
- source_host : 192.168 .2 .16 # pve5, weil pbs den fqdn nicht auflösen kann
destination_mount_check : backup
destination_dataset : backup/pve5/buecher
2023-11-29 22:24:57 +01:00
source_dataset : hdd_data/buecher
2023-10-25 22:26:17 +02:00
- source_host : 192.168 .2 .16 # pve5, weil pbs den fqdn nicht auflösen kann
destination_mount_check : backup
destination_dataset : backup/pve5/programme
2023-11-29 22:24:57 +01:00
source_dataset : hdd_data/programme
2023-10-25 22:26:17 +02:00
- source_host : 192.168 .2 .16 # pve5, weil pbs den fqdn nicht auflösen kann
destination_mount_check : backup
destination_dataset : backup/pve5/vm
2023-11-29 22:24:57 +01:00
source_dataset : hdd_data/vm
2023-10-25 22:26:17 +02:00
# sanoid
sanoid_datasets :
### rpool
- path : rpool
recursive : 'no'
snapshots : true
template : 'pve3tage'
- path : rpool/ROOT
recursive : 'no'
snapshots : true
template : 'pve3tage'
- path : rpool/ROOT/pbs-1
recursive : 'no'
snapshots : true
template : 'pve3tage'
### backup
- path : backup/pbs_data
recursive : 'no'
snapshots : true
template : '3tage'