В целом, очень серьезный подход, с этого можно уже начинать и думаю, что не у всех есть настолько качественно проработанная архитектура (далее, я не буду писать то, что обычно пишет GPT), отвечу на Ваши вопросы и добавлю пару замечаний от себя.
В классическом подходе гипервизоров их бэкапить не надо, но с PVE лучше бэкапить таки и тут у меня есть несколько вариантов
- Бэкапирование /etc/pve не только для быстрого восстановления, но и для отката
- Но, вместо этого лучше реализовать кластер, хотя бы из еще одного миника и малинки (для кворума)
- Изменения в хосте не напрямую, а при помощи Ansible и ему подобных, у меня есть соответствующий плейбук, который подготавивает PVE ноду к работе (там NFS шары, мониторинг, сетевые хранилища, и т.д.)
Лучше на разных, но у меня в виде LXC контейнера на ноде с NAS, в идеале и по производительности и по безопасности лучше держать отдельно, но чтобы не писать подобные посты можно пойти на компромис и поставить PBS в виде LXC контейнера на сервер с дисками
Не пробовал, но сомневаюсь, что SMB может иметь хоть какие-то преимущества кроме маппинга ID пользователей, т.к. я ссылку не буду прикладывать, но я тут расписывал как работает LXC и Docker и mp это прям минимальный оверхед, меньше 1%
Я тут расписывал в нескольких местах, но если кратко, то
- VLAN и бриджи на уровне PBS и фаерволом на роутере
- jump host на L7 уровне в ввиде Komodo periphery и Traefik
И тут mp для LXC реально кааааайфовые, тащюсь от них, например, у меня PVE находится в SRV vlan c MTU 9000 и доступом к NFS шаре, а lxc контейнеры в эту сеть не ходят, в итоге qbt контейнер получает mp шару с медиафайлами, но доступа ни в локалку ни к NAS не имеет, по сети он может только в интернет ходить, и тут безопасность прям крутая, если рассматривать вариант с монтированием SMB шары внутри контейнера, то он должен иметь сетевой доступ к NAS
Та с этой схемой можно хоть сейчас в прод, на самом деле
Чтобы я еще добавил
- Добавил бы один миник и одноплатник для кворума и кластера, чтобы при падении основного сервера можно было запустить хотябы основные сервисы на втором минике + в этом случае нет смысла в бэкапировании /etc/pve т.к. оно размазывается по всем нодам кастера, вы берете голый PVE, вводите его в кластер и он поучает свою копию всех настроек
- TrueNAS в данной схеме не кажется уже оверинжинерингом, я про него писал тут, если кратко, то что можно получить с ним
2.1. Все фишки ZFS + NVMEoF/iSCSI для проброса виртуалок по сети на другую ноду клстера
2.2. Из коробки репликации, снепшоты + облачная синхронизация, т.е. буквально парок кликов/data/backupsвыгружаются в сберобако
2.3. С добавлением узлов в кластер, а я рекомендую держать кластер, с ним проще будет шарить контент по сети, либо через /etc/pve/storage.cfg, либо у меня ansible роль раскатывает NFS шары по всем нодам