Идея моего домашнего self-hosted окружения - хочу критику и советы

В целом, очень серьезный подход, с этого можно уже начинать и думаю, что не у всех есть настолько качественно проработанная архитектура (далее, я не буду писать то, что обычно пишет GPT), отвечу на Ваши вопросы и добавлю пару замечаний от себя.

В классическом подходе гипервизоров их бэкапить не надо, но с PVE лучше бэкапить таки и тут у меня есть несколько вариантов

  1. Бэкапирование /etc/pve не только для быстрого восстановления, но и для отката
  2. Но, вместо этого лучше реализовать кластер, хотя бы из еще одного миника и малинки (для кворума)
  3. Изменения в хосте не напрямую, а при помощи Ansible и ему подобных, у меня есть соответствующий плейбук, который подготавивает PVE ноду к работе (там NFS шары, мониторинг, сетевые хранилища, и т.д.)

Лучше на разных, но у меня в виде LXC контейнера на ноде с NAS, в идеале и по производительности и по безопасности лучше держать отдельно, но чтобы не писать подобные посты можно пойти на компромис и поставить PBS в виде LXC контейнера на сервер с дисками

Не пробовал, но сомневаюсь, что SMB может иметь хоть какие-то преимущества кроме маппинга ID пользователей, т.к. я ссылку не буду прикладывать, но я тут расписывал как работает LXC и Docker и mp это прям минимальный оверхед, меньше 1%

Я тут расписывал в нескольких местах, но если кратко, то

  1. VLAN и бриджи на уровне PBS и фаерволом на роутере
  2. jump host на L7 уровне в ввиде Komodo periphery и Traefik
    И тут mp для LXC реально кааааайфовые, тащюсь от них, например, у меня PVE находится в SRV vlan c MTU 9000 и доступом к NFS шаре, а lxc контейнеры в эту сеть не ходят, в итоге qbt контейнер получает mp шару с медиафайлами, но доступа ни в локалку ни к NAS не имеет, по сети он может только в интернет ходить, и тут безопасность прям крутая, если рассматривать вариант с монтированием SMB шары внутри контейнера, то он должен иметь сетевой доступ к NAS

Та с этой схемой можно хоть сейчас в прод, на самом деле

Чтобы я еще добавил

  1. Добавил бы один миник и одноплатник для кворума и кластера, чтобы при падении основного сервера можно было запустить хотябы основные сервисы на втором минике + в этом случае нет смысла в бэкапировании /etc/pve т.к. оно размазывается по всем нодам кастера, вы берете голый PVE, вводите его в кластер и он поучает свою копию всех настроек
  2. TrueNAS в данной схеме не кажется уже оверинжинерингом, я про него писал тут, если кратко, то что можно получить с ним
    2.1. Все фишки ZFS + NVMEoF/iSCSI для проброса виртуалок по сети на другую ноду клстера
    2.2. Из коробки репликации, снепшоты + облачная синхронизация, т.е. буквально парок кликов /data/backups выгружаются в сберобако
    2.3. С добавлением узлов в кластер, а я рекомендую держать кластер, с ним проще будет шарить контент по сети, либо через /etc/pve/storage.cfg, либо у меня ansible роль раскатывает NFS шары по всем нодам
1 лайк