Системное администрирование и сети
Проблема ядра Linux с RAID: megaraid_sas 0000:43:00.0: AMD-Vi: Событие зафиксировано [IO_PAGE_FAULT domain=0x000e address=0xa518d000 flags=0x0020]
00
Вопрос или проблема После обновления Proxmox с 7.2 до 8.2 и ядра Linux с 5.x до 6.8.4-2-pve (Proxmox) у меня возникли проблемы с ядерным модулем megaraid_sas для контроллера AVAGO MegaRAID SAS 9440-8i. Сервер запускается, но когда я включаю виртуальные
Системное администрирование и сети
Застрял в аду (виртуального) сетевого взаимодействия! Доступ к ВМ в другом подсети
00
Вопрос или проблема Привет, ребята. Я уже почти целый день пытаюсь разобраться с этой проблемой, но мои ограниченные знания в области сетевых технологий мешают дальнейшему прогрессу. Моя основная сеть управляется маршрутизатором openWRT с адресом 192.
Системное администрирование и сети
Проблемы с файерволом PF в FreeBSD
00
Вопрос или проблема У меня есть выделенный сервер OVH, на который я установил Proxmox. Я создал 2 виртуальные машины: одну FreeBSD в качестве фаервола / NAT-шлюза и сервер Debian в одной и той же локальной сети с фаерволом, используя FreeBSD как шлюз.
Unix-подобные системы
Проблемы с файрволом PF в FreeBSD
00
Вопрос или проблема У меня есть выделенный сервер OVH, на который я установил Proxmox. Я создал 2 виртуальные машины, одну с FreeBSD в качестве межсетевого экрана / NAT-шлюза и одну с Debian в той же локальной сети, что и межсетевой экран, с FreeBSD в качестве шлюза.
Компьютеры и программы
Заблокируйте виртуальную машину или контейнер PROXMOX от доступа к Интернету
04
Вопрос или проблема На моем сервере с PROXMOX я хочу предотвратить доступ определенных виртуальных машин и контейнеров к Интернету. В частности, я хотел бы заблокировать любые запросы, которые не попадают в диапазон IP 192.168.*.*. Как лучше всего настроить это ограничение?
Системное администрирование и сети
Слишком ли медленный Ceph и как его оптимизировать?
01
Вопрос или проблема Слишком ли медленный Ceph и как его оптимизировать? Настройка состоит из 3 кластеров Proxmox для вычислений и 3 кластерных узлов хранения Ceph, ceph01 8*150GB SSD (1 используется для ОС, 7 для хранения) ceph02 8*150GB SSD (1 используется