Всем привет!
Подскажите где можно найти полное руководство по настройке Proxmox на русском языке в pdf или в бумажно виде. Выдел 3-е издание но оно только на англ.(((
-
Вопрос заданболее трёх лет назад
-
2269 просмотров
Пригласить эксперта
Проксмокс это небольшая надстройка на квм и контейнерами там книгу не о чем писать, изучается за несколько дней почти все
На русском есть частичто только How to…
Так тчо ставим и разбираемся)
Только сейчас осознал, что почти одинаково легко читаю английские howto и русские. Как говорится: спасибо за любовь к англ. языку. И согласен с автором поста про «нечего там особенно читать». Ставьте prox и шаг за шагом на практике.
-
Показать ещё
Загружается…
25 апр. 2023, в 02:20
5000 руб./за проект
25 апр. 2023, в 01:58
8000 руб./за проект
25 апр. 2023, в 00:17
500 руб./за проект
Минуточку внимания
Proxmox VE administration guide R 6.0
Proxmox VE Administration Guide
Release 6.0
July 15, 2019
Proxmox Server Solutions Gmbh
www.proxmox.com
- Copyright © 2019 Proxmox Server Solutions Gmbh
- Permission is granted to copy, distribute and/or modify this document under the terms of the GNU Free
Documentation License, Version 1.3 or any later version published by the Free Software Foundation; with
no Invariant Sections, no Front-Cover Texts, and no Back-Cover Texts.
A copy of the license is included in the section entitled «GNU Free Documentation License».
Оглавление
- Введение
- Установка Proxmox VE
- Администрирование host системы
- Гиперконвергентная инфраструктура
- Графический интерфейс пользователя
- Менеджер кластера
- Файловая система кластера Proxmox (pmxcfs)
- Хранилище Proxmox VE
- Репликация хранилищ
- Виртуальные машины Qemu/KVM
- Инструменты контейнеров Proxmox
- Proxmox VE Firewall
- User Management
- High Availability
- Backup and Restore
- Important Service Daemons
- Useful Command Line Tools
- Frequently Asked Questions
- Bibliography
- Command Line Interface
- Service Daemons
- Configuration Files
- Firewall Macro Definitions
- GNU Free Documentation License
Комментариев нет:
Отправить комментарий
Главная страница
Подписаться на:
Сообщения (Atom)
Облачные технологии дают возможность развертывать на одном физическом сервере несколько полноценных виртуальных машин и использовать на них любую операционную систему без каких-либо ограничений. Значительно упростить централизованное управление виртуализацией позволяют программные продукты вроде Proxmox. Заодно подобные решения экономят ресурсы компании, ведь системный администратор видит все VM с единого рабочего места.
Основная информация
В случае небольшого опыта, как подобрать сервер для виртуализации и настроить его, объяснят специалисты технической поддержки провайдера timeweb.cloud. Но и самому желательно разбираться в терминах и технологиях, применяемых на удаленных серверах. Это упростит задачу перехода с физической на облачную IT-инфраструктуру или изначально развернуть мощности на базе удаленного ЦОД. Плюс позволит общаться с технарями провайдера на «одном языке».
Основные термины:
- Гипервизор. Специальные программы, предназначенные для создания виртуальных машин, их настройки, запуска, резервного копирования, восстановления, переноса на другой сервер. В качестве гипервизора Proxmox использует KVM и LXC.
- Виртуальная машина. Система, представляющая собой программный сервер с собственным набором «железа» (процессором, оперативной памятью, накопителем, сетевой картой и т.д.). При функционировании занимает часть реальных мощностей физического сервера. Такие системы принято сокращенно называть VM.
- Хост виртуализации. Непосредственно тот самый физический сервер, на базе которого будет проведено развертывание виртуальной машины или нескольких VM. От его параметров зависит, насколько мощными станут логические компьютеры. Например, если на нем стоит 24-ядерный процессор, есть возможность создания такого же количества 1-ядерных систем.
Обязательное требование к хостам — их процессор должен поддерживать хотя бы одну технологию виртуализации: Intel VT или AMD-V (это аппаратная поддержка выделения ресурсов на логические компьютеры). Интересная особенность такой системы заключается в прямом доступе ко всему имеющемуся «железу» из любой VM. При этом они остаются изолированными друг от друга, имеют индивидуальные настройки.
Возможности решения
Если объяснять виртуализацию проще, для чайников, то стоит упомянуть, что гипервизор играет роль «контроллера». Программа распределяет аппаратные ресурсы, приоритеты между VM, эмулирует необходимое с учетом стандартов, принятых в установленной операционной системе. Никаких ограничений по выбору операционной системы с Proxmox VE нет (Windows 7/10, Linux и т.д.).
Особенности виртуальных машин:
- Критический сбой, ошибки в работе одной VM никак не влияют на остальные.
- Масштабирование осуществляется простым копированием виртуального сервера
- Поломка «железа» не влияет на сохранность системы, главное — иметь резервную копию.
- Одну и ту же VM легко развернуть на сервере любого производителя.
Последнее заметно упрощает задачу по модернизации оборудования ЦОД. Провайдер меняет любое «железо» на более современное без необходимости учитывать совместимость с ПО. За счет применения тех же дисковых массивов вроде RAID 5, Proxmox вообще не заметит замену одного или несколько накопителей. Виртуализация физических серверов работает бесшовно, чтобы обеспечить заявленную доступность уровня Tier 3 (не менее 99,9%).
Пользуются популярностью несколько гипервизоров: VMware ESXi, Microsoft Hyper-V, Oracle VM VirtualBox, Open Virtualization Alliance KVM. Каждый продукт имеет свои особенности и различную стоимость. При сравнении цена играет важную роль, здесь однозначно выигрывает KVM в составе готового решения на базе Debian Linux — это Proxmox Virtual Environment или Proxmox VE. Отчасти потому, что оно полностью бесплатно, да еще и имеет открытый исходный код.
Процедура установки продукта Proxmox обычно не вызывает вопросов. Инсталлятор работает через стандартный графический интерфейс, и пользователю остается лишь выбирать нужные настройки из выпадающих списков или вручную вносить наименования, пароли и т.д. Скачивать образ диска с новой версией программы рекомендуется с официальной страницы разработчика. Затем его или монтируют из консоли KVM, или развертывают на любой внешний диск.
Последовательность действий:
- Заказать аренду выделенного сервера у провайдера.
- Смонтировать скачанный образ в качестве сменного диска.
- Выбрать диск, куда будет произведена установка продукта.
- В разделе Option задать дополнительные параметры (по необходимости).
- Внести региональные настройки, в нашем случае – Russia.
- Задать пароль для авторизации суперпользователя, указать email.
- Указать домен, IP-адрес сервера, маску подсети, основной шлюз и DNS-сервер.
- Перезагрузить компьютер кликом на кнопку Reboot.
Если речь идет о развертывании системы из ISO-образа на базе Debian, а не инсталляции файлом Proxmox Debian Install, последний пункт обязателен. В любом случае лучше это сделать, чтобы исключить вероятные сбои из-за другого софта, который пользователь ставил в ту же сессию. Остается запустить Proxmox и заняться настройкой виртуальной машины. Адрес веб-интерфейса выглядит следующим образом:
https://IP_адрес_сервера:8006
Первые действия после установки
Перед эксплуатацией продукта рекомендуется провести обновление до актуальной версии и внести настройки безопасности. Это обеспечит наличие всех предусмотренных разработчиком функций и отсутствие проблем (релизы как раз и обновляют ради добавления новых возможностей, устранения выявленных ошибок в коде).
Обновление приложения
Первое, что рекомендуется сделать — это отключить от системы платный репозиторий. Он установлен по умолчанию, но требует приобретения платной подписки. Без нее пользователь увидит ошибку при скачивании новых источников пакетов. Выполнить отключение можно действиями:
1. Открыть консольное окно и следом файл конфигурации apt на редактирование:
nano /etc/apt/sources.list.d/pve-enterprise.list
2. Поставить символ # перед единственной строчкой, внесенной в него:
#deb https://enterprise.proxmox.com/debian/pve stretch pve-enterprise
3. Выйти из редактора комбинацией клавиш <CTRL + X>, ответив Y на запрос о принятии изменений.
Теперь можно выполнить обновление источников пакетов:
apt update
Рекомендуется скачивать новые версии всех имеющихся пакетов:
apt -y upgrade
Безопасность сетевого соединения
Шаг следующий — позаботиться о безопасности Proxmox Virtualization Environment. Все-таки VM чаще всего используют юридические лица, а у них масса информации, которую желательно хранить вне публичного доступа (коммерческие, персональные данные клиентов и т.д.). Как минимум нужно обезопасить систему от взлома путем перебора паролей, так называемого брутфорса. Эту задачу решит популярная утилита Fail2Ban.
Принцип работы такой защиты основан на контроле количества попыток авторизации. Если некто превысит указанный лимит, его IP-адрес заблокируется. Число попыток и период бана системный администратор указывает в конфигурационном файле. Существует статистика: всего за 7 дней работы сервера с открытым портом 22 и внешним IP-адресом происходит до 5 000 попыток подбора пароля.
Последовательность действий при установке Fail2Ban:
1. Открыть серверную консоль в браузере или в приложении SSH.
2. Обновить источники пакетов:
apt update
3. Инсталлировать саму программу:
apt install fail2ban
4. Открыть файл конфигурации для изменения содержимого:
nano /etc/fail2ban/jail.conf
5. Изменить переменные bantime – период в секундах для блокировки IP-адреса злоумышленника, и maxretry – число попыток авторизоваться. По каждому сервису это делается отдельно.
6. Выйти из редактора с сохранением изменений. Выполняется операция нажатием клавиш <CTRL + X> и подтверждением кнопкой Y.
7. Перезапустить службу:
systemctl restart fail2ban
Остается проверить текущий статус утилиты. Сделать это можно снятием статистики блокировок IP-адресов удаленных хостов, откуда предпринимались попытки взлома. Проверка доступна после ввода команды:
fail2ban-client -v status sshd
Ответ выглядит следующим образом:
root@hypervisor:~# fail2ban-client -v status sshd
INFO Loading configs for fail2ban under /etc/fail2ban
INFO Loading files: ['/etc/fail2ban/fail2ban.conf']
INFO Loading files: ['/etc/fail2ban/fail2ban.conf']
INFO Using socket file /var/run/fail2ban/fail2ban.sock
Status for the jail: sshd
|- Filter
| |- Currently failed: 4
| |- Total failed: 4327
| `- File list: /var/log/auth.log
`- Actions
|- Currently banned: 0
|- Total banned: 516
`- Banned IP list:
Начало работы
Программное обеспечение Proxmox сразу готово к виртуализации машин на базе Windows Server, Ubuntu, CentOS 8 или других платформ. Но ряд настроек рекомендуется все-таки сделать до того, как будет развернута первая VM. Например, рационально саму программу и созданные виртуальные машины хранить на разных накопителях. Такой шаг повышает отказоустойчивость системы, дает возможность немного увеличить производительность комплекса.
Настройка дисковых накопителей
То же относится к хранению резервных копий. Их важно размещать отдельно от других файлов, это позволит оперативно восстанавливать VM даже при серьезных аппаратных сбоях на физическом сервере. Таковые практически исключены благодаря использованию дисковых массивов типа RAID 5 и 10, но лучше предусмотреть дополнительную защиту от рисков потери данных. Тестировать нижеприведенные команды лучше на платформе, где еще нет важной информации.
В качестве примера возьмем систему с двумя дисками. Пусть на /dev/sda будет установлен гипервизор Proxmox, а /dev/sdb останется пустым, на нем пользователь развернет виртуальные машины. При настройке разделения рекомендуется подключить хранилище в виде обычной директории.
Последовательность действий:
1. Разметить диск созданием на нем нового раздела:
fdisk /dev/sdb
2. Нажать клавишу O для его разметки в систему MBR или G для выбора GBT.
3. Нажатием кнопки N создать новый раздел.
4. Кнопкой W сохранить внесенные изменения.
5. Создать файловую систему ext4:
mkfs.ext4 /dev/sdb1
6. Сгенерировать директорию, куда будет смонтирован раздел:
mkdir /mnt/storage
7. Открыть конфигурацию для изменения содержимого редактором:
nano /etc/fstab
8. Внести в него новую строчку со следующим содержимым:
/dev/sdb1 /mnt/storage ext4 defaults 0 0
9. Сохранить изменения нажатием комбинации <CTRL + X> с подтверждением операции за счет клика по Y.
10. Отправить сервер на перезагрузку для принятия новых настроек:
shutdown -r now
11. Проверить ранее подключенные разделы:
df -H
Последняя команда должна отобразить информацию, что /dev/sdb1 был смонтирован в директорию /mnt/storage. Если все нормально, можно продолжать работу.
Подключение нового хранилища данных
Теперь новое хранилище нужно подключить к программе Proxmox. Процедура выполняется через панель управления. В ней нужно зайти в раздел «Директория», он находится по пути «Датацентр» – «Хранилище – «Добавить».
После открытия окна нужно заполнить несколько полей:
- ID – наименование подключаемого хранилища.
- Директория – внести значение /mnt/storage.
- Содержимое – выделить все предлагаемые варианты, последовательно кликнув на каждый из них.
Завершающий шаг включает нажатие на кнопку «Добавить». Теперь можно приступать к развертыванию виртуалки с выбранной операционной системой.
Создание виртуальной машины
Предварительно понадобится скачать ISO-образ с нужной операционкой (из любого источника). Его желательно проверить локально, чтобы убедиться в работоспособности и по необходимости приобрести лицензионный ключ для активации после установки. Затем образ следует смонтировать в систему через меню «Хранилище». В нем нужно нажать «Содержимое» – «Загрузить», затем выбрать файл и кликнуть «Загрузить».
Следующие шаги:
- Нажать «Создать VM».
- Заполнить параметры: имя, ISO-Image, размер и тип жесткого диска, количество процессоров, объем оперативной памяти, сетевой адаптер.
- После заполнения указанных полей нужно нажать на «Завершить» и убедиться в том, что после этого в списке появилась только что созданная виртуальная машина.
- Выбрать ее и нажать «Запуск».
- Перейти в пункт «Консоль» и выполнить инсталляцию операционной системы в такой же последовательности, как при установке на физический сервер.
Процедуру можно повторить сколько угодно раз и создать необходимое количество VM с нужными операционными системами. После запуска любой из них будет возможность установить требуемые прикладные программы, загружать на внутренние накопители пользовательские файлы.
Настройка автозапуска
По умолчанию гипервизор Proxmox не запускает VM автоматически, а это желательно, чтобы при перезапуске сервера виртуальная машина стартовала вместе с другим установленным софтом. Сделать это легко – достаточно выбрать виртуальную машину из списка, выбрать вкладку «Опции», а в ней «Запуск при загрузке». В открывшемся окне нужно поставить галочку напротив соответствующей надписи. Это включит автозагрузку, перезапуск программы или сервера не требуется.
Если в гипервизоре установлено несколько виртуальных машин, есть возможность указать, в какой последовательности их запускать после перезагрузки сервера (эти настройки скрыты в разделе Start/Shutdown). Например, программа позволяет указать время задержки в секундах между стартом каждой следующей VM. То же относится к выключению систем, потому что операционка не всегда успевает корректно завершить все процессы, и требуется чуть продлить время отключения.
Настройка сети
В официальной документации к Proxmox предлагается настройка сети виртуальных машин в двух вариантах: с использованием моста и маршрутизации. Все сетевые параметры настраиваются на уровне ноды, для этого нужно перейти на нужный сервер, открыть меню «Система» – «Сеть». Именно там и скрыты сетевые параметры. По умолчанию в VM используется конфигурация «Внешняя сеть», и она оправдывает свое применение.
Пользователь обращается к виртуальным машинам как к самому обычному узлу локальной сети – от просмотра содержимого дисков до копирования, создания, удаления и редактирования файлов. База всех виртуальных сетей в Proxmox — сетевой мост (Linux Bridge) vmbr. Он допускает создание до 4095 таких устройств, подключение физических и виртуальных адаптеров. Все сетевые настройки осуществляются внутри VM, как будто на физическом сервере.
Пользователю нужно назначить IP-адрес интерфейсу моста, не забыв указать и адрес шлюза, опцию автозапуска и краткий комментарий о назначении сетевого узла. Настройка DNS осуществляется в отдельном пункте: «Система» – «DNS». После сохранения изменений останется внутри виртуальной машины выбрать нужный мост и задать ему подходящие сетевые настройки. Например, указать, что их следует получать автоматически от DHCP-сервера внешней сети.
Заключение
Вот и все основы работы с гипервизором Proxmox VE. Их достаточно начинающим специалистам, чтобы опробовать технологию виртуализации на практике. На первый взгляд, технология может показаться сложной, и, конечно, всегда можно купить виртуальную машину или несколько у провайдера и объединить их в локальную сеть. Однако развертывание VM на собственном арендуемом сервере даст вам больше свободы в управлении.
Proxmox VE, несмотря на бесплатность, считается довольно мощным и удобным инструментом. Главное, самому разобраться во всех тонкостях настройки системы и не бояться экспериментировать (естественно, на тестовой платформе, с обязательным резервированием основных VM).
This topic has been deleted. Only users with topic management privileges can see it.
Привет.
Про KVM, Proxmox VE, ZFS, Ceph etc.
>>Часть 2<<
Proxmox VE Documentation https://pve.proxmox.com/pve-docs/
Proxmox. Полное руководство. 2е изд. http://support.mdl.ru/MasteringProxmox.2ed/content/index.html
Proxmox. Полное руководство. 3е изд. (ожидается перевод) http://onreader.mdl.ru/MasteringProxmox.3ed/content/index.html
Книга рецептов Proxmox http://onreader.mdl.ru/ProxmoxCookbook/content/index.html
Полная виртуализация. Базовая коммерческая редакция: Proxmox-freeNAS-Zentyal-pfSense http://onreader.mdl.ru/VirtualizationComplete/content/index.html
Proxmox install on NVMe ssd intel 10gig nic ups nut rootdelay ntp postfix vlan smartmontools pci passthrough iommu https://nguvu.org/proxmox/proxmox-install/
Proxmox — Indie IT Wiki http://wiki.indie-it.com/wiki/Proxmox
Script to install Proxmox 5.x and 6.x on a Dedicated Hetzner Server https://schaal-it.com/script-to-install-proxmox-5-x-and-6-x-on-a-dedicated-hetzner-server/
Configure the Proxmox firewall https://www.kiloroot.com/secure-proxmox-install-sudo-firewall-with-ipv6-and-more-how-to-configure-from-start-to-finish/
Rename a node(франц.) https://memo-linux.com/proxmox-renommer-un-noeud/
Proxmox and let’s encrypt with acme https://blog.chasefox.net/proxmox-lets-encrypt/
Virtualisierung (нем.) https://deepdoc.at/dokuwiki/doku.php?id=virtualisierung
Differential backups patch — https://github.com/ayufan/pve-patches
Installing Docker on Proxmox https://www.reddit.com/r/Proxmox/comments/ifeni2/bestsolid_tut_for_installing_docker_on_promox_62/
Install Docker with Rancher and DockerUI webgui on a Proxmox or Debian https://www.solaris-cookbook.eu/linux/debian-proxmox-install-docker-with-rancher-and-dockerui-webgui/
Proxmox performance monitoring zfs watch iostat glances netdata pidstat iotop blkid udevadm http://blog.jason.tools/2019/01/disk-perf-issue.html
Display CPU temperature in Proxmox VE dashboard with lm-sensors http://everun.top/helpcenter/others/pve-tips-2.html
Статьи proxmox pfsense sr-iov (кит.) https://pvecli.xuan2host.com/
Proxmox mit Grafana überwachen https://www.bachmann-lan.de/proxmox-mit-grafana-ueberwachen/
Извлечение конкретной директории из бекапа Proxmox (*.vma.lzo) для VDS c FreeBSD https://www.flynet.pro/ru/blog/izvlechenie-konkretnoy-direktorii-iz-bekapa-proxmox-vmalzo-dlya-vds-c-freebsd
OSFMount — Mount Disk Images & Create RAM Drives img dd E01 VHD ISO bin vmdk https://www.osforensics.com/tools/mount-disk-images.html
Настраиваем сеть в Proxmox Virtual Environment https://interface31.ru/tech_it/2019/10/nastraivaem-set-v-proxmox-ve.html
Fix Proxmox VE (PVE) noVNC/console not working in iOS/iPhone/iPad Safari/Web Browser https://dannyda.com/2020/05/15/how-to-fix-proxmox-ve-pve-novnc-console-not-working-in-ios-iphone-ipad-safari-web-browser-etc-failed-to-connect-to-server/
Backup and Restore Proxmox VE host using UrBackup https://dannyda.com/2020/05/28/how-to-backup-proxmox-ve-host/
Run Wireguard over port 443 in an unprivileged LXC container behind a nginx reverse proxy with DNS security https://www.reddit.com/r/Proxmox/comments/katrzd/how_to_run_wireguard_over_port_443_in_an/
Proxmox PVE Host Config Backup Script https://gist.github.com/mrpeardotnet/6bdc4b504f43ce57fa7eaee96d376edf
Efficient backup of lxc containers in Proxmox https://it-notes.dragas.net/2020/10/06/efficient-backup-of-lxc-containers-in-proxmox/
Use watchdog to reboot stuck servers
https://it-notes.dragas.net/2018/09/16/proxmox-enable-and-use-watchdog-to-reboot-stuck-servers/
https://tompaw.net/proxmox-vm-watchdogs/
https://forum.proxmox.com/threads/i6300esb-watchdog-in-windows-help-needed.37990/
https://github.com/dmitriypavlov/pve-watchdog
Экономим место на дисках вирт. машин https://pve.proxmox.com/wiki/Shrink_Qcow2_Disk_Files , https://www.belug.de/howtos-using_trim_inside_virtual_machines.html
Turnkeylinux templates lxc http://mirror.turnkeylinux.org/turnkeylinux/images/proxmox/
Запускаем kubernetes внутри LXC https://habr.com/post/420913/
Инкрементальный бэкап в Proxmox VE с помощью VBR (Veeam Backup&Replication) incremental backup https://selectel.ru/blog/proxmox-veeam-backup/
All-In-One: Proxmox + OpenMediaVault или ещё одна идея для домашнего NAS https://habr.com/ru/post/328048/
Proxmox VE + NextCloud + OpenMediaVault + OpenLDAP https://becoder.org/diynas-pve-nextcloud-omv4-openldap-3/
Sécurisons le login sous Proxmox par fail2ban email https://jeedom-facile.fr/index.php/2018/12/05/securisation-du-login-sous-proxmox/
*Post install script (convert from LVM to ZFS, create ZFS from devices, creates default routes to allow for extra ip ranges to be used, create private mesh vpn/network using Tinc) https://github.com/extremeshok/xshok-proxmox
Proxmox: Automatische Snapshots einrichten https://techlr.de/proxmox-automatische-snapshots-einrichten/
Automatic snapshot tool for Proxmox VE https://github.com/EnterpriseVE/eve4pve-autosnap
A set of Proxmox VE scripts that aids with suspend/resume and cpu pinning https://github.com/ayufan/pve-helpers
proxmox ve tools script (debian9+ can use it) email, samba, NFS, set zfs max ram, nested virtualization, docker, pci passthrough etc https://github.com/ivanhao/pvetools
Терминальный сервер XRDP Debian 9.3 в LXC контейнере Proxmox VE 5.1 https://a-katyrev.blogspot.com/2018/08/debian-93-lxc-proxmox-ve-51-1.htm
Setting Up Proxmox with Shared Storage over Infiniband https://tech-jungle.com/setting-up-proxmox-with-shared-storage-over-infiniband/
Быстрая сеть в домашней лаборатории или как я связался с InfiniBand https://habr.com/ru/post/529906/
Использование недорогих 10/40 Гбит/с сетевых адаптеров с интерфейсом HP FlexibleLOM https://habr.com/ru/post/529732/
Настройка NUT для управления ИБП с нескольких серверов ups apc usb windows debian
https://blog.programs74.ru/how-to-installing-and-configuring-nut/
Glossary of Virtualization Terms iommu acs vfio ovmf https://heiko-sieger.info/glossary-of-virtualization-terms/
What is IOMMU and why do I need it? https://heiko-sieger.info/iommu-groups-what-you-need-to-consider/
PCI passthrough via OVMF https://wiki.archlinux.org/index.php/PCI_passthrough_via_OVMF
QEMU/Guest graphics acceleration https://wiki.archlinux.org/index.php/QEMU/Guest_graphics_acceleration
GPU passthrough tutorial https://forum.proxmox.com/threads/gpu-passthrough-tutorial-reference.34303/
Single GPU passthrough with QEMU and VFIO https://github.com/joeknock90/Single-GPU-Passthrough
Running Windows 10 on Linux using KVM with VGA Passthrough https://heiko-sieger.info/running-windows-10-on-linux-using-kvm-with-vga-passthrough/
Looking Glass — an open source application that allows the use of a KVM configured for VGA PCI Pass-through without an attached physical monitor, keyboard or mouse https://github.com/gnif/LookingGlass
KVM, PCI passthrough, Looking Glass и все-все-все https://habr.com/post/433878/
Nvidia Optimus laptop dGPU passthrough https://gist.github.com/Misairu-G/616f7b2756c488148b7309addc940b28
Dell R710 with GPU Passthrough on Proxmox https://www.youtube.com/watch?v=epNvY_YKPu8
Building a 2U AMD Ryzen server (Proxmox GPU Passthrough / OBS or Xsplit in VM) http://blog.quindorian.org/2018/03/building-a-2u-amd-ryzen-server-proxmox-gpu-passthrough.html/
Разворачиваем виртуалку с Windows с пробросом виртуальной видеокарты с помощью QEMU и Intel GVT-g https://habr.com/ru/post/437270/
Как из домашнего ПК средствами виртуализации сохранить игровую систему nvidia https://habr.com/ru/post/437598/
Primary VGA passthrough in ProxMox https://techblog.jeppson.org/2019/10/primary-vga-passthrough-in-proxmox/
Enable GPU Passthrough on Proxmox VE 6.0 https://lunar.computer/posts/gpu-passthrough-proxmox-60/
NVIDIA GPU passthrough Code 43 error fix NVIDIA GPU passthrough Code 43 error fix https://techblog.jeppson.org/2019/10/proxmox-6-nvidia-gpu-passthrough-fix/
The Ultimate Beginner’s Guide to GPU Passthrough (Proxmox, Windows 10) www.reddit.com/r/homelab/comments/b5xpua/the_ultimate_beginners_guide_to_gpu_passthrough/
Intel nvidia intel GPU nic network card passthrough spdk sr-iov kata containers https://github.com/kata-containers/documentation/tree/master/use-cases
Proxmox PCI(e) Passthrough in 2 minutes https://www.reddit.com/r/Proxmox/comments/lcnn5w/proxmox_pcie_passthrough_in_2_minutes/
Running macOS on QEMU KVM https://github.com/kholia/OSX-KVM
Installing macOS on Proxmox https://www.nicksherlock.com/category/proxmox/
Hackintosh-KVM Guide: High Sierra+ Using QEMU’s i440fx Chipset https://passthroughpo.st/hackintosh-kvm-guide-high-sierra-using-qemus-i440fx-chipset/
1C на Proxmox lxc https://habr.com/post/429172/
Cluster
Setting up an HA Cluster with Ceph Bluestore https://memo-linux.com/proxmox-5-mise-en-place-dun-cluster-ha-avec-ceph/
Proxmox 5: 2-node cluster with replicated storage https://memo-linux.com/proxmox-5-cluster-2-noeuds-avec-un-stockage-replique/
Надежное хранилище с DRBD9 и Proxmox nfs iscsi lvm https://habr.com/post/417597/
Proxmox cluster over OpenVPN tap (франц.) https://blog.zwindler.fr/2018/06/05/creation-dun-cluster-de-virtualisation-proxmox-ve-5-2-x/
Setting up a cluster between two Proxmox nodes on different networks over OpenVPN (франц.) https://memo-linux.com/proxmox-creer-un-cluster-multi-sites/
Proxmox Cluster Ceph : migration version 5 vers 6 https://memo-linux.com/proxmox-cluster-ceph-migration-version-5-vers-6/
Кластеризация в Proxmox VE https://selectel.ru/blog/proxmox-cluster/
Setting up a Proxmox VE cluster with Ceph shared storage https://medium.com/@qwonkiwow/setting-up-a-proxmox-ve-cluster-with-ceph-shared-storage-e7a4f652f321
Build a hyper-converged cluster with KVM and GlusterFS https://www.servethehome.com/building-a-proxmox-ve-lab-part-1-planning/
ansible-role-proxmox — deploys and configures Proxmox VE 5.x/6.x clusters ceph ipmi https://github.com/lae/ansible-role-proxmox
Понятно про CEPH https://www.youtube.com/watch?v=PmLPbrf-x9g
Полное руководство Ceph http://onreader.mdl.ru/MasteringCeph/content/index.html
Книга рецептов Ceph http://onreader.mdl.ru/CephCookbook/content/index.html
Ceph software defined cloud storage management solution https://croit.io/croit-production-guide
Сeph — от «на коленке» до «production» https://habr.com/ru/post/458390/
Install OpenAttic — management and monitoring system for Ceph on Proxmox https://www.facebook.com/notes/chris-hsiang/pve-44-安裝-openattic-套件/10211191515174257
Ceph: memory optimization hugepages numa https://ivirt-it.ru/ceph-memory-optimization/
Backup And Restore Ceph for Proxmox VE https://github.com/EnterpriseVE/eve4pve-barc
Разворачиваем хранилище LINSTOR для Proxmox DRBD https://habr.com/post/423101/
SR-IOV
Про SR-IOV (https://habr.com/ru/post/414655/):
Про SR-IOV от RedHat:
rhelblog.redhat.com/2016/05/23/sr-iov
redhatstackblog.redhat.com/2015/03/05/red-hat-enterprise-linux-openstack-platform-6-sr-iov-networking-part-i-understanding-the-basics
redhatstackblog.redhat.com/2015/04/29/red-hat-enterprise-linux-openstack-platform-6-sr-iov-networking-part-ii-walking-through-the-implementation
Pci Passthrough и технология VT-D — это как раз аппаратный проброс реального устройства в виртуальную машину.
Требуется поддержка от процессора и материнской платы. Аналог AMD — IOMMU. При этом гостевая система считает, что к ней подключено полноценное pci устройство с соответствующей же производительностью. Помимо сети так ещё часто подключают видеокарты для игр/расчётов на виртуальной машине. Временами — raid контроллеры, когда гостю требуется полное управление дисковой подсистемой.
В простых ситуациях (и в этом посте) используют сетевой мост для связи виртуальной машины с реальным адаптером. При этом практически вся работа ложится на центральный процессор, что не очень хорошо сказывается на времени отклика при высоких нагрузках на систему.
Разница между SR-IOV и pci passthrough в том, что для первого метода требуется дополнительная поддержка конкретным устройством (сетевой картой, например). При втором методе пробросить можно что угодно (но тут уже зависит от жадности производителя — nvidia очень не любит проброс видеокарт и пытается заставить людей покупать карты серии Quadro).
…
Я бы сказал SR-IOV позволяет на одной сетевой карте создать несколько Virtual Function устройств и пробрасывать в виртуалку уже их, а не всю сетевую карту целиком.
В итоге они работают почти так же как macvlan, но силами сетевухи: отлавливая пакеты с определенным MAC-адресом. Сделать виртуальный бридж на них не получится.
…
То есть нарезать ресурсы реальной карты на несколько виртуальных машин, и при этом каждая будет почти на уровне bare-metal работать со всем этим?
…
Именно так, сами VF, без включения IOMMU можно активировать и на хостовой машине, определяться они будут как отдельное PCI-устройство.
Технология IOMMU нужна как раз для того что бы осуществить этот проброс устройства непосредственно в виртуалку.
Если ваши мат. платы + cpu + сетевые адаптеры поддерживают SR-IOV (!):
http://www.osp.ru/lan/2012/05/13015724/
https://software.intel.com/en-us/articles/configure-sr-iov-network-virtual-functions-in-linux-kvm
http://blog.pichuang.com.tw/Enable-SR-IOV-on-Proxmox/
http://enricorossi.org/blog/2016/intel_sr-iov_on_Debian_Stretch/
https://forum.proxmox.com/threads/cannot-use-sr-iov-on-proxmox.27045/
Turn on intel nic SR-IOV and passthrough https://www.facebook.com/notes/chris-hsiang/pve-42-如何開啟-intel-nic-sr-iov-以及-passthrough/10209002585332379
** Для «счастливых» владельцев HP Proliant поколения G8-** (G9+ вроде починили, обязательно обновить BIOS сервера до последней возможной версии) желающих пробросить GPU, raid-контроллер, сетевые адаптеры etc в ВМ и столкнувшимся с невозможностью это сделать ввиду э-э-э, особенностей серверных платформ от HP (ошибки «vfio: failed to set iommu for container: Operation not permitted» и»vfio-pci 0000:0X:YY.Z: Device is ineligible for IOMMU domain attach due to platform RMRR requirement. Contact your platform vendor» при попытке запуска ВМ )
- (Не работает) https://forum.proxmox.com/threads/tutorial-compile-proxmox-ve-5-with-patched-intel-iommu-driver-to-remove-rmrr-check.36374/
- (Работает, компиляция ядра не требуется, заменить xenial на stretch ) http://www.jimmdenton.com/proliant-intel-dpdk/
P.s. Можно загрузиться в ILO с Live CD того же Linux Mint 19.x , запустить терминал, перейти в учетку root (sudo passwd root -> два раза пароль -> su — -> пароль root) и проделать рабочую процедуру, к-ая описана выше (заменить xenial на bionic в настройках репозитория, ес-но).
Сетевые адаптеры с поддержкой SR-IOV:
http://dpdk.org/doc/nics
https://www.intel.com/content/www/us/en/support/articles/000005722/network-and-i-o/ethernet-products.html
https://www.vmware.com/resources/compatibility/search.php?deviceCategory=io (в Features выбрать SR-IOV и нажать Update and view results )
P.s. Напр., Asrock AB350 Pro4 при своей достачно скромной цене (в кач-ве мат. платы для сервера) умеет и amd_iommu и sr-iov — осталось только сетевую прикупить. Более того, совсем бюджетные Biostar A320MD PROA320MH PRO также умееют и amd_iommu и sr-iov.
Zettabyte File System (ZFS)
ZFS: архитектура, особенности и отличия от других файловых систем https://habr.com/ru/company/mailru/blog/529516/
ZFS for Dummies https://blog.victormendonca.com/2020/11/03/zfs-for-dummies/
An Introduction to ZFS A Place to Start https://www.servethehome.com/an-introduction-to-zfs-a-place-to-start/
Slideshow explaining VDev, zpool, ZIL and L2ARC for noobs! https://www.ixsystems.com/community/threads/slideshow-explaining-vdev-zpool-zil-and-l2arc-for-noobs.7775/
Доступно про ZFS L2ARC, SLOG https://www.ixbt.com/live/data/apacer-nas-ssd-obzor-ssd-sozdannogo-dlya-ispolzovaniya-v-nas.html
Introduction to ZFS https://www.ixsystems.com/community/resources/introduction-to-zfs.111/
Мастерство FreeBSD: ZFS для профессионалов http://onreader.mdl.ru/AdvancedZFS/content/index.html
ZFS on Linux wiki https://github.com/zfsonlinux/zfs/wiki
ZFS: Read Me 1st https://blog.cadena-it.com/linux-tips-how-to/zfs-read-me-1st/
Что такое ZFS? И почему люди от неё без ума? https://habr.com/post/424651/
Преимущества и недостатки ZFS http://www.stargrave.org/ZFS-proscons.html
Features provided by ZFS преимущества http://doc.freenas.org/11/zfsprimer.html
Список литературы про NAS zfs zlog l2arc https://habr.com/post/418091/
Цикл статей о ZFS http://nas-faq.github.io/zfs/
Hardware recommendation ssd sata sas raid ashift 4k ecc memory http://open-zfs.org/wiki/Hardware
Performance tuning postgresql mysql logbias ashift ssd l2arc zil compression http://open-zfs.org/wiki/Performance_tuning
How to improve ZFS performance https://icesquare.com/wordpress/how-to-improve-zfs-performance/
ZFS: Тестируем надежность на плохих дисках https://habrahabr.ru/post/347640/
Use snapshots, clones and replication in ZFS https://www.howtoforge.com/tutorial/how-to-use-snapshots-clones-and-replication-in-zfs-on-linux/
VDev, zpool, ZIL and L2ARC for noobs https://forums.freenas.org/index.php?threads/slideshow-explaining-vdev-zpool-zil-and-l2arc-for-noobs.7775/
ZFS Configuration Part 2: ZVols, LZ4, ARC, and ZILs Explained https://passthroughpo.st/zfs-configuration-part-2-zvols-lz4-arc-zils-explained/
ZFSin: работаем с ZFS нативно под Windows https://habr.com/post/374317/
zpool FAULTED error fix repair recover https://dan.langille.org/2018/11/06/zpool-faulted-too-many-errors/
ZnapZend — open source ZFS backup with mbuffer and ssh support perl script http://www.znapzend.org/ , https://forum.proxmox.com/threads/znapzend-backup-generator-script.33309/
Удалённые инкрементные резервные копии ZFS remote incremental backup snapshot https://habr.com/ru/post/491456/
Battle testing data integrity verification with ZFS, Btrfs and mdadm+dm-integrity http://www.unixsheikh.com/articles/battle-testing-data-integrity-verification-with-zfs-btrfs-and-mdadm-dm-integrity.html
How To Create A NAS Using ZFS and Proxmox (with pictures) https://forum.level1techs.com/t/how-to-create-a-nas-using-zfs-and-proxmox-with-pictures/117375
Step by Step Install with UEFI, ZFS, SSD ZIL L2ARC cache, File Server samba raidz template https://forum.proxmox.com/threads/step-by-step-install-w-efi-zfs-ssd-cache-file-server.41619/
Install Docker on Proxmox, with ZFS, and good performance portainer turbo boost https://forum.level1techs.com/t/gigabyte-server-activity-corner-proxmox-docker-and-config-notes/167614
ZFS Sync storage to Host for Proxmox VE https://github.com/EnterpriseVE/eve4pve-zstorage
Proxmox rescue mode grub zfs repair https://pvecli.xuan2host.com/proxmox-grub-zfs/
Using ProxMox as a ZFS NAS zfs-zed email postfix sanoid snapshot ups apc nfs samba smart logwatch https://techblog.jeppson.org/2019/08/using-proxmox-as-a-nas/
*Проверить, есть ли смысл вкл. deduplication на Вашем пуле https://habr.com/ru/post/328048/#comment_10208284
Recover files from ZFS snapshot of ProxMox VM https://techblog.jeppson.org/2019/01/recover-files-from-zfs-snapshot-of-proxmox-vm/
Восстановление из любого snapshot-а (а не только с последнего) https://forum.proxmox.com/threads/cloning-a-vm-from-snapshot-not-working.34247/
На пальцах:
- Создать новую VM с размером hdd равным размеру клонируемой. Не запускать VM.
- Выполнить:
zfs list # просмотр списка вирт. машин
zfs clone rpool/data/vm-<old-number>-disk-<number>@<snapshot-name> rpool/data/vm-<old-number>-disk-<number>-clone
dd if=/dev/zvol/rpool/data/vm-<old-number>-disk-<number>-clone of=/dev/zvol/rpool/data/vm-<new-number>-disk-<number> bs=4096
zfs destroy rpool/data/vm-<old-number>-disk-<number>-clone
SMR: новая технология записи делает HDD непригодными для работы в RAID https://www.linux.org.ru/news/hardware/15692989
Потеря данных из-за несовместимости ZFS с WD SMR дисками https://www.linux.org.ru/forum/talks/15680121
Таблица моделей HDD https://www.mobibrw.com/2020/22727
SCT Error Recovery Control
Что такое на самом деле ‘raid edition’ для жёстких дисков https://geektimes.ru/post/92701/
Enabling CCTL/TLER https://b3n.org/best-hard-drives-for-zfs-server/
SCT Error Recovery Control in RAID drives https://rolandschnabel.de/blog/?p=75
Checking for TLER, ERC, etc. support on a drive https://forums.freenas.org/index.php?threads/checking-for-tler-erc-etc-support-on-a-drive.27126/
Linux Software RAID and drive timeouts http://strugglers.net/~andy/blog/2015/11/09/linux-software-raid-and-drive-timeouts/
Т.е. если вы собираете zfs raid-z1*2**3* массив, то вкл. вышеописанного поможет сократить время для восстановления,
если же собираетесь использовать zfs raid-0*1**10*, то вкл. не нужно.
Open vSwitch (OVS)
Open vSwitch — программный многоуровневый коммутатор с открытым исходным текстом, предназначенный для работы в гипервизорах и на компьютерах с виртуальными машинами.
Основные возможности коммутатора:
Учёт трафика, в том числе проходящего между виртуальными машинами с использованием SPAN/RSPAN, sFlow[en] и Netflow.
Поддержка VLAN (IEEE 802.1q).
Привязка к конкретным физическим интерфейсам и балансировка нагрузки по исходящим MAC-адресам.
Работа на уровне ядра, поддержка существующих возможностей Linux по работе в качестве моста.
Поддерживает Openflow для управления логикой коммутации.
Помимо режима на уровне ядра, с меньшей производительностью open vSwitch может работать и с правами пользователя (вне ядра).
Основные области применения:
Замена обычных bridgetools.
Использование в составе Xen Server, Xen Cloud Platform, KVM, VirtualBox, QEMU, ProxMox (начиная с 2.3)
QoS, GRE-туннелирование, индивидуальные политики для виртуальных машин, а также возможность агрегации портов с распределением нагрузки.
Open vSwitch Command Reference https://docs.pica8.com/display/PICOS2111cg/PicOS+Open+vSwitch+Command+Reference
Open vSwitch — Proxmox VE https://pve.proxmox.com/wiki/Open_vSwitch
Примеры создания vlan, bond, bridge, OVSIntPort https://forum.pfsense.org/index.php?topic=139045.0, https://forum.proxmox.com/threads/vlan-tag.38051/
OpenVswitch vlan trunk gre vxlan span rspan mirror lacp bonding https://gns3.com/news/article/containers-in-gns3-series-advanc
Описание openvswitch fake bridge internal port bond https://www.altlinux.org/Etcnet/openvswitch
Проброс VLAN-ов через интернет openvpn OVSIntPort https://habrahabr.ru/post/239729/
Security Onion & Proxmox SPAN Port mirror https://beyondtheory.io/blog/virtualization/security-onion-proxmox/
—> Использование Open vSwitch в Proxmox:
Установка:
apt-get clean; apt-get update; apt-get install -y openvswitch-switch
Переключение на ovs в gui :
1. Delete the vmbr0 (Linux bridge) # линк с Proxmox не потеряется, не бойтесь
2. Create vmbr0 as ovs-bridge with your IP/MASK/Gateway and Bridge ports [ethX] # вместо ethX — имя вашего физ. интерфейса
3. Reboot.
По https://blog.scottlowe.org/2012/10/04/some-insight-into-open-vswitch-configuration/ поясню немного :
Добавить ВМ в определенный vlan можно в GUI, указав нужный VLAN Tag в настройках сети ВМ. Это аналог untagaccess порта на железном свитче. Задействовать назначенный выше vlan можно без перезагрузки ВМ, просто выклвкл сетевой интерфейс непосредственно в ВМ.
Если хотите, чтобы ВМ находилась в опред. vlan и при этом могла «слушать» трафик из др. vlan-ов, то https://forum.proxmox.com/threads/ovs-bridge-with-vlans.27280/
Или создать еще один OVS IntPort в GUI. В настройках указать необходимые вам параметры для VLAN (и не только для VLAN). И прицепить созданный интерфейс к ВМ. Но после создания OVS IntPort понадобится перезагрузка всего хоста.
Также можно объединять интерфейсы (bonding), настраивать балансировкуотказоустойчивость (LACP) — https://blog.scottlowe.org/2012/10/19/link-aggregation-and-lacp-with-open-vswitch/
По ссылке Proxmox. Полное руководство. 2е изд есть глава, посвященная Ovs — http://onreader.mdl.ru/MasteringProxmox.2ed/content/Ch07.html
https://forum.proxmox.com/threads/proxmox-ve-on-debian-jessie-with-zfs-hetzner.33429/
2-ая страница крайне интересна. Есть про удаленную установка из .iso, используя qemu и vnc. Таким образом можно устанавливать любой дистрибутив linux.
Pfsense
Virtualizing pfSense on VMware vSphere/ESXi, Proxmox, Xen, KVM, Hyper-V https://www.netgate.com/docs/pfsense/virtualization/index.html
HOW TO: 2.4.0 ZFS Install, RAM Disk, Hot Spare, Snapshot, Resilver Root Drive https://forum.netgate.com/topic/112490/how-to-2-4-0-zfs-install-ram-disk-hot-spare-snapshot-resilver-root-drive
pfSense VLANs on Proxmox (исп-ся linux bridge) https://www.linuxincluded.com/pfsense-vlans-on-proxmox/
Нюансы работы pfsense в Proxmox:
I’ve got a fresh install of 2.3.3-RELEASE-p1 (amd64), running on ovirt (kvm). My guests (only have linux guests) could ping out, but no udp or tcp.
Just selecting the «Disable hardware checksum offload» and rebooting (though I didn’t check without rebooting) the pfsense instance did the trick.
I didn’t need to change anything on the ovirt/kvm hypervisor — the default offload settings are in place. All guests (pfsense and the linux ones) are using virtio network drivers.
Microsoft Windows OS
Рекомендации для гостевых ОС семейства Microsoft Windows:
https://pve.proxmox.com/wiki/Windows_2008_guest_best_practices
https://pve.proxmox.com/wiki/Windows_2012_guest_best_practices
https://www.proxmox.com/en/training/video-tutorials/item/install-windows-2016-server-on-proxmox-ve
VMware OS Optimization Tool — оптимизация Windows в виртуальной среде (подойдет и для proxmox) https://codebeer.ru/optimizaciya-windows-v-virtualnoj-srede/
CloneDisk – clone,backup,restore raw vhd vmdk iso imdisk http://labalec.fr/erwan/?page_id=42
Misc
->zswap
https://www.hippolab.ru/linux-zswap-dayte-mashine-shans, https://wiki.archlinux.org/index.php/Zswap , http://ru.knowledgr.com/19459262/Zswap , http://linuxoidblog.blogspot.com/2015/12/zram-zswap.html
Script for creating hybrid swap space from zram swaps, swap files and swap partitions https://github.com/Nefelim4ag/systemd-swap
Вкратце, это технология, позволяющая оптимизировать работу ядра со swap — хранилищем избыточных страниц памяти.
Включение и использование ZSWAP в Proxmox VE и любом современном дистр-ве Linux с ядром >= 3.11
Обновляемся:
apt-get clean; apt-get update; apt-get full-upgrade -y; apt-get autoremove —purge -y; apt-get autoclean
Перезагружаемся:
reboot
Проверяем включено ли в ядре:
cat /boot/config-$(uname) | grep -i zswap
Если все ОК:
CONFIG_ZSWAP=y
Правим GRUB :
mkdir -vp /etc/default/grub.d
На выбор:
LZ4:
echo ‘GRUB_CMDLINE_LINUX_DEFAULT=»$GRUB_CMDLINE_LINUX_DEFAULT zswap.enabled=1 zswap.compressor=lz4 zswap.zpool=z3fold zswap.max_pool_percent=25″‘ > /etc/default/grub.d/zswap.cfg
или
ZSTD:
echo ‘GRUB_CMDLINE_LINUX_DEFAULT=»$GRUB_CMDLINE_LINUX_DEFAULT zswap.enabled=1 zswap.compressor=zstd zswap.zpool=z3fold zswap.max_pool_percent=25″‘ > /etc/default/grub.d/zswap.cfg
update-grub
Вкл. модули:
cp -fv /etc/initramfs-tools/modules{,.orig}
for module in lz4 lz4_compress zstd zstd_compress z3fold
do grep -qx «${module}» /etc/initramfs-tools/modules || echo «${module}» >> /etc/initramfs-tools/modules
done
update-initramfs -u -k all
Перезагрузка:
reboot
Проверяем:
dmesg | grep -i zswap
Должно быть:
Если выбран LZ4:
…
zswap: loaded using pool lz4/z3fold
…
Для ZSTD:
…
zswap: loaded using pool zstd/z3fold
…
Получаем статистику по ZSWAP:
Статистика:
watch -n1 grep -R . /sys/kernel/debug/zswap/
Сжатие:
cd /sys/kernel/debug/zswap
watch -n1 -x perl -E «say $(cat stored_pages) * 4096 / $(cat pool_total_size)»
Текущие настройки:
grep -R . /sys/module/zswap
Прим. Касаемо строки zswap.zpool=z3fold. По умолчанию на данный момент в linux испол-ся zbud в кач-ве memory allocator. Он обкатан и надежен и работает на любом «железе», но появился более эффективный z3fold:
The zpool parameter controls the management of the compressed memory pool, it is by default set to zbud. With the zbud data allocator, 2 compressed objects are stored into 1 page which limits the compression ratio to 2 or less. The superior z3fold allocator allows up to 3 compressed objects by page. The compression ratio with z3fold typically averages 2.7 while it is 1.7 for zbud.
Однако, следует помнить, что компрессия требует вычислительных мощностей. И чем сильнее сжатие, тем выше требования к «железу».
Turn off Spectre and Meltdown vulnerability patch in Windows and Linux https://heiko-sieger.info/low-2d-graphics-benchmark-with-windows-10-1803-kvm-vm/
Remove old kernel packages script on Linux distros or Proxmox (для proxmox 6+ уже не актуально — автоматом сохраняются 2 последние версии ядра для загрузки) https://github.com/algodelinux/purge-old-kernels https://enavas.blogspot.com/2017/01/modificado-purge-old-kernels-para.html
Guide to crossflashing LSIAvago 9211 HBA Dell H200 PERC Fujitsu D2607 IBM M1015 and variants IT or IR mode https://forums.freenas.org/index.php?resources/detailed-newcomers-guide-to-crossflashing-lsi-9211-hba-and-variants.54/
LSI RAID Controller and HBA Complete Listing Plus OEM Models https://forums.servethehome.com/index.php?threads/lsi-raid-controller-and-hba-complete-listing-plus-oem-models.599/
Flashing firmware and BIOS on LSI SAS HBAs https://www.broadcom.com/support/knowledgebase/1211161501344/flashing-firmware-and-bios-on-lsi-sas-hbas
Flashing LSI HBAIBM ServeRAID M1015 to IT mode or IR Mode https://geeksunlimitedinc.wordpress.com/2017/02/16/flashing-lsi-hba-to-it-mode-or-ir-mode/
->FOG Project
FOG можно использовать:
- как систему резервного копирования, создавая по расписанию снимки разделов , установив клиента и разворачивать эти снимки по сети на др. компьютеры в сети (у меня с помощью sysprep и FOG созданы эталонные образы Windows, к-ые я разворачиваю по сети);
- как систему P2VV2VV2P-миграции;
- загружать по сети все, что может загружаться по сети — windows, linux, антивирусные live-cd (https://www.comss.ru/list.php?c=bootcd) , ПО для брендового серверного оборудования HP, Dell , загружать тонкие клиенты etc.
An Introduction to Free-Open Source Ghost (FOG) https://linuxhint.com/introduction-to-free-open-source-ghost/
Install FOG Server on Ubuntu https://www.ceos3c.com/sysadmin/install-fog-server-ubuntu-server-16-04-lts-ultimate-guide-virtualbox/
Create a Generalized Windows 10 Image (sysprep) and Deploy it with FOG Server https://www.ceos3c.com/sysadmin/create-generalized-windows-10-image-deploy-fog-server/
Установка Proxmox по сети (PXEiPXEHTTP) с помощью FOG Project (https://fogproject.org/) — a free open-source network computer cloning and management solution (некий аналог WDS (Windows Deployment Services))
Скрипт модификации образа Proxmox VE для загрузки по сети https://github.com/morph027/pve-iso-2-pxe
Меню FOG-а для Proxmox :
kernel http://${fog-ip}/fog/isos/proxmox/linux26 vga=791 video=vesafb:ywrap,mtrr ramdisk_size=16777216 rw quiet splash=silent
initrd http://${fog-ip}/fog/isos/proxmox/initrd.iso.img
boot
Загрузка c .iso в FOG Project:
Add an ISO entry in the iPXE Boot menu https://memo-linux.com/fog-ajouter-une-entree-dans-le-menu-ipxe-boot/
Booting MDT 2013 LiteTouch with FOG https://forums.fogproject.org/topic/6284/booting-mdt-2013-litetouch-with-fog/25
ISO’s in FOG PXE https://community.spiceworks.com/topic/997567-iso-s-in-fog-pxe https://youtu.be/KYp-XVPxg3I
Advanced Boot Menu Configuration options https://wiki.fogproject.org/wiki/index.php/Advanced_Boot_Menu_Configuration_options
Include any ISO in the FOG Bootmenu https://wiki.fogproject.org/wiki/index.php?title=Include_any_ISO_in_the_FOG_Bootmenu
Спасибо за популяризацию Proxmox.
Из мануала по вашим ссылкам:
Proxmox VE сам по себе свободен для применения. Не существует абсолютно никаких платежей включенных в загрузку простого образа ISO и установки полнофункционального кластера Proxmox без оплаты лицензий или подписок.
С официального сайта:
COMMUNITY
Starting out
€ 5,83/month (per CPU)
Отказ от подписки с точки зрения разработчиков допустим?
Отказ от подписки с точки зрения разработчиков допустим?
Все строго добровольно. Хотите платную поддержку и сверх быструю реакцию на баги — платите. Нет? Пользуйте просто так.
P.s. Вот «увидивили». Был на 146% уверен, что уж вы-то, ув. pigbrother, точно KVM «тискали» :'(
Первый тестовый виртуальный домен поднимал в далеком 2001 году на PIII (Vmware Workstation). ;),
Winows NT DC, рабочие станции Windows NT и 98, выход в интернет через RRAS с диалапом…
Сейчас в продакшн используется ESXi — выбор руководства. Мы посовещались и оно решило ;).
С KVM за довольно долгую карьеру столкнуться, как ни странно, так и не пришлось. Сейчас же хочу покрутить для собственного интереса.
Что порекомендуете — сразу 5.0 или начать с 4.4?
5-ку, ес-но. После установки — сразу обновить.
Если в будущем в продакшн соберетесь, то использовать ZFS raid от 2-ух (raid1), а лучше — 4 диска (raid10). Zfs raid идет из коробки и в самом начале установки конфигурируется.
Proxmox поддерживает nested virtualization? Хочу попробовать в ESXi. Нет под рукой свободного полноценного железа.
UPD.
Можно, так же как и для остальных гипервизоров, запускаемых в ESXi.
https://imanudin.net/2015/03/04/how-to-install-proxmox-nested-on-vmware-esxi-full-support-openvz-kvm/
Все это исключительно для тестов, нормальной работы от такого мутанта никто не ждет.
Nested virtualization (вложенная виртуализация, т.е. возможность запускать гипервизор в гипервизоре) на Proxmox:
https://pve.proxmox.com/wiki/Nested_Virtualization
https://medium.com/@alexander.bazhenov/установка-vmware-esxi-внутри-proxmox-d5778b5a97a1
Миграция с других гипервизоров (локально).
Migrate VMWare ESXi Virtual Machines to Proxmox KVM with LVM-Thin Logical Volumes https://www.sysorchestra.com/2017/03/16/migrate-vmware-esxi-virtual-machines-to-proxmox-kvm-with-lvm-thin-logical-volumes/
Migrate from Xenserver to Proxmox https://techblog.jeppson.org/2018/01/migrate-xenserver-proxmox/
Небольшой how-to.
Внимание! Формат raw — это т.н. «сырой» формат образов дисков. Перед дальнейшими операциями убедиться в наличие
свободного места.
Подключаемся по SFTP к Proxmox. В Win это можно сделать с пом. WinSCP или FAR.
Забрасываем образ(ы) диска(ов), к-ые мы хотим подкинуть к ВМ в предварительно созданную временную папку.
Прим. Если у вас ova-образ — сперва распаковываем
tar -xvf disk.ova
Конвертируем (на примере vmware .vmdk)
qemu-img convert -p -O raw disk.vmdk disk.raw
Смотрим размер получившегося
ls -ahl
Cоздаем через gui ВМ с диском(-ми) не меньшего размера. ВМ не запускать!
Смотрим что у нас получилось (у вас путь к образам дисков может быть другой)
ls -al /dev/zvol/rpool/data/
Разворачиваем образ диска в диск ВМ
dd if=/path/to/file/disk.raw of=/dev/zvol/ZFS-Pool-Name/vm-XYZ-disk-X
ZFS-Pool-Name и vm-XYZ-disk-X изменить на свои
После
qm rescan
Upd2.
Короткий вариант. Проверил — работает.
qemu-img convert -p -O raw disk.vmdk /dev/zvol/ZFS-Pool-Name/vm-XYZ-disk-X
ZFS-Pool-Name и vm-XYZ-disk-X изменить на свои
qm rescan
Запускаем ВМ. Проверяем.
Upd3.
Специально для тех, кто переходит с MS Hyper-V на Proxmox (KVM):
Подкидываем **vhdx-**образ по SFTP во временную папку на Proxmox.
Далее повторяем ранее описанное (т.е., создаем через gui ВМ с диском необх. размера, но не вкл. её! )
Команда для конвертации:
qemu-img convert -p -O raw disk.vhdx /dev/zvol/ZFS-Pool-Name/vm-XYZ-disk-X
ZFS-Pool-Name и vm-XYZ-disk-X изменить на свои
qm rescan
Запускаем ВМ. Проверяем.
Upd4.
И для догадливых (типа меня, ага 8))
Аналогично описанному выше (только наоборот ;)) можно конвертировать zfs-диски Proxmox-а во все самые распространненные форматы:
Сперва выкл. ВМ, конечно.
VHDVHDX (Hyper-V)
qemu-img convert -p -O vhdx /dev/zvol/ZFS-Pool-Name/vm-XYZ-disk-X /path/to/file/disk.vhdx
ZFS-Pool-Name , vm-XYZ-disk-X и /path/to/file/ изменить на свои
Остальные форматы https://docs.openstack.org/image-guide/convert-images.html
P.s. Также имеется возможность миграцииконвертирования по сети используя netcat, dd, pv, gzippigzbzip2, ssh и
SystemRescueCD https://pve.proxmox.com/wiki/Migration_of_servers_to_Proxmox_VE
Так что, добро пожаловать в мир открытого ПО. Для тех кто еще не решился )
Миграция Windows 2000 с динамическими дисками dynamic disc
Дано:
Старый сервер с Windows 2000 Server на программном raid1 из 2-ух дисков. На сервере живет оч. важное для клиента ПО.
Задача:
(Бережно) перенести в Proxmox VE (KVM)
Проблема:
- Linux ничего «не знает» о динамических дисках Windows, что не дает возможность использовать «в лоб» Clonezilla и Partclone для миграции локально или по сети.
- Windows 2000 не имеет в своем составе службу Volume Shadow Copy, что не позволяет использовать, напр., Disk2vhd для промежуточной миграции в vhd(x) и дальнейшего переноса на PVE.
Решение:
Нам понадобятся Clonezilla Live, Gparted Live, драйверы на сетевой адаптер Intel e1000.
- Записать на CDDVD образ Clonezilla live
- Скачать с сайта Intel и сохранить на раб. стол КЛОНИРУЕМОЙ файлы PROWMI.exe, PRO2K.exe для установки драйверов на виртуальный сет. адаптер Intel e1000
- Создать вирт. машину (ВМ) типа Windows 2000 с размером hdd НЕ МЕНЬШЕ, чем hdd клонируемой.
- Загрузиться с Clonezilla live на ФИЗИЧЕСКОЙ до момента «Start Clonezilla or enter login shell» и выбрать Enter_shell
3.1. (Опционально) Сменить пол-ля на root: sudo passwd root -> ввести 2 раза пароль -> su — и ввести придуманный ранее пароль - Загрузиться с Clonezilla live на ВИРТУАЛЬНОЙ до момента «Start Clonezilla or enter login shell» и выбрать Enter_shell
4.1. (Опционально) п.3.1. - Узнать и запомнить IP адрес на ВИРТУАЛЬНОЙ: ip a s
- Узнать и запомнить имя клонируемого диска на КЛОНИРУЕМОЙ: fdisk -l
- Узнать и запомнить имя диска, на к-ый будет перенесена инф-ция на ВИРТУАЛЬНОЙ: fdisk -l
- На ВИРТУАЛЬНОЙ ввести в терминале: sudo nc -w120 -vvnlp 19000 | sudo cat > /dev/sdX, где sdX — имя диска из п.7 и нажать Enter
- На КЛОНИРУЕМОЙ ввести в терминале: sudo pv /dev/sdX | sudo nc -vvn X.X.X.X 19000, где sdX — имя диска из п.6, X.X.X.X — IP адрес из п.5 и нажать Enter
- По завершние клонирования выкл. КЛОНИРУЕМУЮ.
- Перезагрузить ВИРТУАЛЬНУЮ.
- Установить на ВИРТУАЛЬНОЙ драйверы сетевой карты Intel E1000: 1. PROWMI.exe, 2. PRO2K.exe
- Важно! Откл. в настройках сетевой карты все, что касается Offload.
- Для избавления от динамического диска:
- добавить еще один диск в ВИРТУАЛЬНУЮ
- загрузиться с Gparted live
- скопировать партиции со старого на новый диск
- выключить ВМ
- отсоединить старый диск
- загрузиться с нового
- в случае проблем со стартом ОС загрузиться в Консоль восстановления с диска Windows 2000 и
пофиксить командами fixboot, fixmbr
Using Terraform and Cloud-Init to deploy and automatically monitor Proxmox instances https://yetiops.net/posts/proxmox-terraform-cloudinit-windows/
Encrypting Proxmox VE 6: ZFS, LUKS, systemd-boot and Dropbear https://tactical-documentation.github.io/post/proxmoxve6-zfs-luks-systemdboot-dropbear/
ZFS RAIDZ luks disk encryption script https://www.reddit.com/r/Proxmox/comments/ijpuv8/zfs_raidz_luks_disk_encryption_script/
Мигрируем удаленно.
Прим. Примеры использования pv — http://linux-notes.org/utilita-pv-progress-bar-dlya-konsol-ny-h-utilit-v-unix-linux/
Предупреждение. Все ниже описанное вы делаете на свой страх и риск. Внимательно проверяйте какие диски копируете и куда принимаете. Крайне желательно иметь резервные копии данных.
И так. Как сказал один оч. известный и достойный Человек: «Поехали!»
Качаем на принимающей и отдающей сторонах SystemRescueCD (http://www.system-rescue-cd.org/).
Принимающая сторона:
На Proxmox создаем ВМ с размером диска как у отдающей стороны.
Загружаемся с SystemRescueCD в эту ВМ.
Настраиваем сет. параметры (net-setup имя-интерфейса) или получаем их по dhcp. Проверить полученныенастроенные сет. параметры — ip a s
На отдающей стороне:
Загружаемся с SystemRescueCD.
Настраиваем сет. параметры (net-setup имя-интерфейса) или получаем их по dhcp. Проверить полученныенастроенные сет. параметры — ip a s
Запускаем на принимающей стороне:
nc -w10 -vvnlp 19000 | pigz -5 -dfc | cat > /dev/disk-name, где :
-w10 — время ожидания данных в сек. на приним. стороне (меняется на ваше усмотрение).
19000 — номер порта, к-ый слушает netcat и принимает на него данные от отдающей стороны (меняется на ваше усмотрение)
pigz -5 — степень сжатия (меняется на ваше усмотрение)
disk-name — имя диска внутри ВМ (меняете на свое)
Считаем до трех и запускаем на отдающей стороне:
pv /dev/disk-name | pigz -5 -fc | nc -vvn remote-server-ip 19000, где:
disk-name — имя диска, к-ый вы хотите передать (узнается по fdisk -l)
pigz -5 — степень сжатия (меняется на ваше усмотрение)
remote-server-ip — ip-адресимя удаленного сервера-приемника
19000 — номер порта удаленного сервера-приемника
Всё. Скрещиваем пальцы, чтобы линк между отдающей и принимающей сторонами не упал и ждем окончания процесса.
После удачного окончания выкл. ВМ на принимающей стороне. Извлекаем в gui из вирт. привода SystemRescueCD и пробуем загрузиться.
Пример с SSH (кому необходима секьюрность):
Принимающая сторона:
Создаем ВМ с размером диска как у отдающей стороны.
Загружаемся с SystemRescueCD в эту ВМ.
Настраиваем сет. параметры (net-setup имя-интерфейса) или получаем их по dhcp. Проверить полученныенастроенные сет. параметры — ip a s
Смотрим какие диски у нас есть — fdisk -l. Запоминаемзаписываем имя нужного нам диска.
Более ничего на принимающей стороне делатьзапускать не надо.
На отдающей стороне:
Загружаемся с SystemRescueCD.
Настраиваем сет. параметры (net-setup имя-интерфейса) или получаем их по dhcp. Проверить полученныенастроенные сет. параметры — ip a s
Запускаем команду:
pv /dev/disk-name | pigz -5 -fc | ssh remote-server-ip «cat > /dev/disk-name», где :
disk-name — имя диска на принимающей стороне, к-ое мы внимательно выбрали и запомнили ранее
remote-server-ip — ipимя примающей стороны
Ожидаем удачного окончания процесса передачи. После выкл. ВМ на принимающей стороне. Извлекаем в gui из вирт. привода SystemRescueCD и пробуем загрузиться.
Обновил шапку.
а кто расскажет, какое преимущество у zfs перед ufs ?
это какое странное достижение. Слижком уж не специфичное для фаервола.
@derwin:
а кто расскажет, какое преимущество у zfs перед ufs ?
это какое странное достижение. Слижком уж не специфичное для фаервола.
Применительно к pfSense на одном диске —
устойчивость к пропаданию питания, например. UFS крайне этого не любит
возможность работать со снапшотами, как в VM.
Статья, которая, может быть, заинтересует ув. werter:
http://jrs-s.net/2016/05/09/testing-copies-equals-n-resiliency/
Доброе.
@derwin:
а кто расскажет, какое преимущество у zfs перед ufs ?
это какое странное достижение. Слижком уж не специфичное для фаервола.
В шапке есть картинки. Нагляднее некуда.
вы не поняли суть вопроса. Можно сравнивать жареную куропатку с боингом.
А зачем оно (ZFS) для фаервола?
чтобы логи хранить в отказоустойчивом пуле ?? смешно….
вот вам в топку http://2gusia.livejournal.com/7545.html
Причем тут логи? Речь идет обо всей ОС в данном случае.
Пример? Легко.
Перед обновлением пф делаете снепшот (вот так http://linux.cpms.ru/?p=8931). Криво встало обновление ? Не работают пакеты, к-ые работали до обновления ? Что же делать? Звонить в Спортлото!
Да просто откатиться с пом. сделанного ранее снепшота ::)
Вот от вас, ув. derwin, таких откровенно глупых вопросов я не ожидал.
что то я не вижу гуя по управлению zfs,а значит всё равно звонить сергею брину.
у меня до 2,4 итак всё было на снапшотах на уровне vmware. Мне мозги пропарило обновление — сейчас откатился до 2,3,4 и нет проблем.
werter
фишка zfs это блочное управление и отказоусточивость за счёт проца + памяти. У меня в филиальных бордерах до недавнего времени вообще флешки стояли и я горя не знал! сдохла — вставь резервную… спасибо 2,4 — теперь заказал SSD на 60гб…..
я себе в будущем году мож прикуплю сервак с полкой под 300-дисковый zfs пул. Но это NAS сервер, а не пакетный фаервол!!!!
PS: 2.4 меня вообще в тоску вгоняет…. мало того, что удалили radius2 из репо, дык ещё и с 2.3.4 запретили качать пакеты…. это какой то сплошной фейспалм.
что то я не вижу гуя по управлению zfs,
Гуй точно будет. Для снэпшотов он и не шибко нужен — сделал снэпшот в CLIвосстановил снэпшот в CLI.
У меня как-то регулярно пропадало электричество, UFS при этом ведет себя крайне ненадежно. Не зря в 2.4 сделали для опции выключения — перезагрузить и запустить fsck.
Учитывая что уже большая часть программных роутеров ,фаерволов итд устанавливаются на VM
У такого решения полно как сторонников, так и противников. Я — не сторонник.
Имел случай проверить свою правоту.
И никто не заставляет ZFS использовать, более того — по умолчанию 2.4 ставится по прежнему на UFS.
я в первый раз поставил zfs где то в 2009 году вместе с проектом FreeNAS. Секс был просто адовый. Падение производительности — ужасное.
Когда развалился массив — я не смог сделать равном счётом ни-че-го.
@derwin:
я в первый раз поставил zfs где то в 2009 году вместе с проектом FreeNAS. Секс был просто адовый. Падение производительности — ужасное.
Когда развалился массив — я не смог сделать равном счётом ни-че-го.
Не наговаривайте. Для IT-индустрии 8-9 лет — это как для человечества 100. Как паровой котел и АЭС.
@werter:
@derwin:
я в первый раз поставил zfs где то в 2009 году вместе с проектом FreeNAS. Секс был просто адовый. Падение производительности — ужасное.
Когда развалился массив — я не смог сделать равном счётом ни-че-го.Не наговаривайте. Для IT-индустрии 8-9 лет — это как для человечества 100. Как паровой котел и АЭС.
я по первому высшему инженер-котельщик-атомщик
Работал по специальности, всё видел и делал
Доброе всем.
С утра запустил обновление Proxmox. Прилетело масштабное (!) — ядро теперь 4.13 (наираспоследнее LTS) , zfs — 0.7.2.
Обновил тестовый PVE.
apt-get update and apt-get upgrade версии не изменили, хотя пакеты и скачались и установились.
apt-get dist-upgrade — сработало.
Доброе.
Используйте apt <параметры>. Современные дебиан-подобные с ним корректнее пакетные зависимости разрешают.
P.s. Также следует обновить zfs — https://docs.oracle.com/cd/E19253-01/819-5461/gcikw/index.html
На что лучше устанавливать? SSD или HDD?
На что хватит ресурсов 8 Xeon/32 Гб?
У меня — на 4-ех HDD 7200 rpm . При установке в самом начале (внизу) выбрал zfs raid 10 и свои 4 диска + lz4 сжатие явно указал.
Плюс, отдельно докинут SSD, к-ый разбит на 2 партиции — меньшая для l2arc cache, большая — как zfs для дисков вирт. машин.
На что хватит ресурсов 8 Xeon/32 Гб?
А кто ж его знает.
P.s. Разворачивание proxmox я бы рекомендовал начать с тестов в Virtualbox. Чтобы не залюбиться.
Правильно ли я понимаю, что аппаратных рейдов надо избегать? Они не нужны?
Верно. Избегать как огня.
«ZFS can not fully protect the user’s data when using a hardware RAID controller, as it is not able to perform the automatic self-healing unless it controls the redundancy of the disks and data. ZFS prefers direct, exclusive access to the disks, with nothing in between that interferes. If the user insists on using hardware-level RAID, the controller should be configured as JBOD mode (i.e. turn off RAID-functionality) for ZFS to be able to guarantee data integrity»
Аппаратный контроллер нужно перепрошить, если он не поддерживает работу без рейда.
Аппаратный контроллер нужно перепрошить, если он не поддерживает работу без рейда.
Т.е. в режим обычного SATASAS контроллера?
Доброе.
Т.е. в режим обычного SATASAS контроллера?
Что-то типа того.
Для LSI, напр., это наз-ся IT mode — https://b3n.org/freenas-9-3-on-vmware-esxi-6-0-guide/
Интересный мануал, спасибо.
Добавил инф-цию по SCT Error Recovery Control.
Добавил Проброс VLAN-ов через интернет openvpn OVSIntPort
@werter:
Добавил Проброс VLAN-ов через интернет openvpn OVSIntPort
вот если бы ко мне пришёл сотрудник и сказал «я прокинул VLAN через OpenVPN» — я бы его уволил. Чесслово. Это как копать огород клавиатурой. Чисто сисадминский подход. Хотя бытовая задача для нетворк инженера.
Доброго.
Попробуйте объяснить большинству работодателей, что есть Системный адм-р, есть Системный инженер, есть Сетевой инженер . Это как минимум, потому как еще и Программистов не берем во внимание.
И все это — разные люди, а не один. И ЗП им надо платить по отдельности.
Хотя бытовая задача для нетворк инженера.
Современные «одмины» хорошо, чтобы вообще объяснить могли, что такое VLAN и для чего оно надо. Тут не до жиру, коллега.
В современных реалиях зачастую вот https://ru.wikipedia.org/wiki/Эффект_Даннинга_—_Крюгера
Добавил ссылки по разворачиванию пф в различн. вирт. средах.
Доброго времени суток!
Попробовал поставить proxmox ve 5.1 и сразу уперся в проблему — не работает kvm.
root@pve:~# kvm
Could not access KVM kernel module: No such file or directory
failed to initialize KVM: No such file or directory
Система ibm x3550 7978K1Y
2x CPU intel xeon 5140
Чипсет intel 5000x
16gb ram
bios последний 1.17
root@pve:~# uname -a
Linux pve 4.13.4-1-pve #1 SMP PVE 4.13.4-25 (Fri, 13 Oct 2017 08:59:53 +0200) x86_64 GNU/Linux
CPU Options
Active Energy Manager 'Capping Enabled'
Processor Perfofmance States 'Enabled'
System Cache Type 'Write Back'
Snoop Filter 'Enabled'
Execute Disable Bit 'Enabled'
Enhanced C1 Power State 'Enabled'
Intel Virtualization Technology 'Enabled'
Processor Hardware Prefetcher 'Enabled'
Processor Adjacent Sector Prefetch 'Auto-configure'
Уже при установке proxmox вижу ошибки:
modprobe: ERROR: could not insert 'kvm_intel': Input/output error
modprobe: ERROR: could not insert 'intel_powerclamp': No such device
и при старте ВМ (windows xp, kvm32):
Could not access KVM kernel module: No such file or directory
failed to initialize KVM: No such file or directory
TASK ERROR: start failed: command '/usr/bin/kvm -id 100.....
На FreeBSD kvm работал с этой системой. Что я делаю не так?
Доброго.
1. Покажите вывод lscpu
2. Вывод lsmod | grep kvm
3. Поправьте репозитории https://pve.proxmox.com/wiki/Package_Repositories:
-
откл. Proxmox VE Enterprise Repository — mv /etc/apt/sources.list.d/pve-enterprise.list /etc/apt/sources.list.d/pve-enterprise.list.bak
-
в /etc/apt/sources.list у вас должно быть только :
deb http://ftp.ru.debian.org/debian stretch main contrib
# PVE pve-no-subscription repository provided by proxmox.com,
# NOT recommended for production use
deb http://download.proxmox.com/debian/pve stretch pve-no-subscription
# security updates
deb http://security.debian.org stretch/updates main contrib
4. Делаете sudo apt update && sudo apt upgrade
5. После обновления выкл. сервер (не перезагружаете, а именно выкл.). Выдергиваете кабель питания из его БП. И пускай он постоит минут 10.
6. Вкл. сервер. Проверяете снова.
P.s. Есть сомнения работоспособности «полноценной» вирт-ции на вашем cpu (https://ark.intel.com/ru/products/27217/Intel-Xeon-Processor-5140-4M-Cache-2_33-GHz-1333-MHz-FSB), т.к. он не умеет Intel VT-x с таблицами Extended Page Tables (EPT) . Но вот тут (https://social.technet.microsoft.com/Forums/ru-RU/e743ef99-1034-42b6-b5d2-3268413ec109/-hyperv-bios-?) говорят, что «Серверный гипервизор не требует поддержки SLAT (EPT в терминологии Intel), так что поддержка виртуализации у этого процессора есть. Попробуйте обесточить сервер полностью.«
Поправил репы, обновил, выключил, обесточил, подождал, включил — результат отрицательный.
root@pve:~# lscpu
Architecture: x86_64
CPU op-mode(s): 32-bit, 64-bit
Byte Order: Little Endian
CPU(s): 4
On-line CPU(s) list: 0-3
Thread(s) per core: 1
Core(s) per socket: 2
Socket(s): 2
NUMA node(s): 1
Vendor ID: GenuineIntel
CPU family: 6
Model: 15
Model name: Intel(R) Xeon(R) CPU 5140 @ 2.33GHz
Stepping: 6
CPU MHz: 2327.410
CPU max MHz: 2324.0000
CPU min MHz: 1992.0000
BogoMIPS: 4654.82
Virtualization: VT-x
L1d cache: 32K
L1i cache: 32K
L2 cache: 4096K
NUMA node0 CPU(s): 0-3
Flags: fpu vme de pse tsc msr pae mce cx8 apic sep mtrr pge mca cmov pat pse36 clflush dts acpi mmx fxsr sse sse2 ss ht tm pbe syscall nx lm constant_tsc arch_perfmon pebs bts rep_good nopl cpuid aperfmperf pni dtes64 monitor ds_cpl vmx est tm2 ssse3 cx16 xtpr pdcm dca lahf_lm tpr_shadow dtherm
root@pve:~# lsmod | grep kvm
kvm 581632 0
irqbypass 16384 1 kvm
Повторюсь — под freebsd и ubuntu server kvm работает на этой системе и пишет следующее:
INFO: /dev/kvm exists
KVM acceleration can be used
@T-Virus:
root@pve:~# lsmod | grep kvm kvm 581632 0 irqbypass 16384 1 kvm
У меня lsmod | grep kvm :
root@pve:~# lsmod | grep kvm
kvm_amd 2179072 34
kvm 581632 1 kvm_amd
irqbypass 16384 24 kvm
Разницу увидели ? У вас там где kvm должно быть kvm xxxxxx 1 kvm_intel
Покажите dmesg | grep kvm и modinfo kvm_intel
И попробуйте руками sudo modprobe kvm-intel
Разницу вижу.
dmesg | grep kvm — пусто
root@pve:~# modinfo kvm_intel
filename: /lib/modules/4.13.4-1-pve/kernel/arch/x86/kvm/kvm-intel.ko
license: GPL
author: Qumranet
srcversion: 7CEE7EE092D65CA2BC3BD89
alias: cpu:type:x86,ven*fam*mod*:feature:*0085*
depends: kvm
intree: Y
name: kvm_intel
vermagic: 4.13.4-1-pve SMP mod_unload modversions
parm: vpid:bool
parm: flexpriority:bool
parm: ept:bool
parm: unrestricted_guest:bool
parm: eptad:bool
parm: emulate_invalid_guest_state:bool
parm: fasteoi:bool
parm: enable_apicv:bool
parm: enable_shadow_vmcs:bool
parm: nested:bool
parm: pml:bool
parm: preemption_timer:bool
parm: ple_gap:int
parm: ple_window:int
parm: ple_window_grow:int
parm: ple_window_shrink:int
parm: ple_window_max:int
root@pve:~# modprobe kvm-intel
modprobe: ERROR: could not insert 'kvm_intel': Input/output error
p.s. сейчас ради эксперимента поставил ubuntu на другой диск:
user@u16:~$ uname -a
Linux u16 4.4.0-87-generic #110-Ubuntu SMP Tue Jul 18 12:55:35 UTC 2017 x86_64 x86_64 x86_64 GNU/Linux
user@u16:~$ kvm-ok
INFO: /dev/kvm exists
KVM acceleration can be used
user@u16:~$ lsmod | grep kvm
kvm_intel 172032 0
kvm 544768 1 kvm_intel
irqbypass 16384 1 kvm
bios не трогал.
2.УстановитьProxmox VE
Proxmox VEна основеDebianСледовательно, мы предоставляем дисковые изображения (ISOФайлы) включают в себя полныйDebianСистема версии5.xдля“ stretch”) И все необходимоеProxmox VEУпаковка.
Использование установщика будет направлять вас к выполнению процесса установки, позволяют разбивать локальный диск, применить базовую конфигурацию системы (например, часовой пояс, язык, сеть) и установить все необходимые пакеты. ПредоставлятьISOВы можете заставить вас за несколько минут, поэтому мы рекомендуем использовать новые пользователи и существующие пользователи использовать этот метод.
Кроме того,Proxmox VEМожет быть установлен в существующемDebianВерхняя часть системы. Используйте эту опцию только для продвинутых пользователей, потому чтоProxmox VEПодробные знания.
2.1Отказ Системные Требования
Для производственных серверов требуются высококачественные серверные устройства. Помните, если вы запустите на компьютере10Virtual Server, затем столкнуться с нарушениями оборудования, будет потерян10Сервис.Proxmox VEПоддержка кластеров, что означает, что вы можете централизованно управлять несколькимиProxmox VEУстановить.
Proxmox VEВы можете использовать локальное хранилище (DAS),SAN,NASВы также можете использовать распределенное хранилище (Ceph RBDОтказ Для получения дополнительной информации см.“место хранения”Глава。
2.1.1Отказ Минимальные требования к оценке
- ЦП: 64-битный (Intel EMT64 или AMD64)
- Поддержка KVM Full Virtualization Intel VT / AMD-V CPU / материнской платы
- RAM: 1 ГБ ОЗУ, ОЗУ применяется к гостям
- жесткий диск
- Сетевая карта
2.1.2Отказ Рекомендованные системные требования
- Intel EMT64 или AMD64 с логотипом Intel VT / AMD-V CPU.
- Память, по меньшей мере, 2 ГБ используется для обслуживания ОС и Proxmox. Плюс память, указанная для гостей. Для Ceph или ZF требуется дополнительная память, и каждое из хранилища 1 ГБ требуется для хранения Tb.
- Быстрое и избыточное хранение, вы можете получить лучшие результаты, используя SSD-диски.
- Хранение операционной системы: аппаратный RAID или нерешитель с ZFS и Cache SSD с защитой от батареи кэш записи («BBU»).
- Хранение виртуальной машины: для локального хранения, используйте аппаратный RAID с кэшем резервного батареи (BBU) или нерешитель для ZFS. ZFS и Ceph не совместимы с аппаратному контроллеру RAID. Доля и распределенное хранение также возможны.
- Избыточный GBIT NIC, другой NIC, в зависимости от предпочтительных технологий хранения и настройки кластера — 10 Гбит или выше.
- Для прямого доступа PCI требуется процессор с флагом VT-D / AMD-D.
2.1.3Отказ Простой обзор производительности
УстановленProxmox VEВ системе вы можете запустить включенныеpveperfСкриптCPUИ обзор производительности жесткого диска.
Это просто очень быстрая и универсальная базовая линия. Рекомендуются более подробные тесты, особенно те, которые на тесте производительности ввода-вывода системы. |
2.1.4Отказ Служба поддержкиWebДоступ к браузеруWebинтерфейс
нужно использоватьWebИнтерфейс, вам нужен современные браузеры, в том числе:
- Firefox — это версия этого года, или последняя версия поддержки расширения
- Chrome, выпущенный в этом году
- В настоящее время поддерживает версию Internet Explorer (по состоянию на 2019 год, это означает, что IE 11 или IE EDGE)
- Safari, версия этого года
еслиProxmox VEОбнаружено, что вы подключаетесь с вашего мобильного устройства, перенаправьте вас к легкой на основе сенсорных на основеUI。
2.2Отказ использоватьProxmox VEУстановщик
Вы можетеhttps://www.proxmox.com/cn/downloadsскачатьISO Отказ Это включает в себя следующее:
- Полная операционная система (Debian Linux, 64-битный)
- ProxMox ve Установщик, который разделяет локальные диски, используя Ext4, Ext3, XFS или ZFS и устанавливает операционную систему.
- Ядр Proxmox VE поддерживается LXC и KVM (Linux)
- Полный инструмент для управления виртуальными машинами, контейнерами и всеми необходимыми ресурсами
- Интерфейс управления на основе веб для использования набора инструментов
Во время процесса установки полный сервер используется по умолчанию, и все существующие данные удаляются. |
Пожалуйста, вставьте установочный носитель (например,USBКарта памяти,CD-ROM) И начните с этого.
Выберите правильную запись (например, изUSBПосле начала),Proxmox VEМеню вы можете выбирать один из следующих вариантов:
УстановитьProxmox VE
Начните правильную установку.
Вы можете использовать только клавиатуру для завершения мастера установки. Может быть нажатаALTКлюч и нижний символ строки соответствующей кнопки нажмите кнопку. Например, нажмитеALT + NМожет нажать «»Следующий шаг”Кнопка. |
УстановитьProxmox VE(Режим отладки)
Запустите установку в режиме отладки. Он откроет несколько шагов установкиShellКонсоль может быть отлажена, чтобы появиться проблемы. НажмитеCTRL-DВыйдите из этих отладки консоли и продолжайте устанавливать. Эта опция в основном используется для разработчиков и не подходит для общего пользования.
Спасательные ботинки
Эта опция позволяет загружать существующую установку. Он ищет все подключенные жесткие диски, если вы найдете существующую установку, используйте существующиеLinuxЯдро направлено прямо на жесткий диск. Если загрузочный блок (grub) Есть проблема, илиBIOSЭто будет полезно с чтения диска с диска.
Тестовая память
запуститьmemtest86 +Отказ Это очень полезно для проверки, если ваша память нормальной и не ошибается.
Обычно вы выбираетеInstall Proxmox VEНачать установку. После этого вы предложите вам выбрать целевой жесткий диск. использовать ВариантКнопка может выбрать целевую файловую систему, по умолчаниюext4Отказ Если вы выберетеext3, ext4илиxfsВ качестве файловой системы установщик будет использоватьLVM И предоставить ограниченияLVMДругие варианты в космосе (см.Ниже)
Вы также можетеZFSИспользуется в качестве файловой системы.ZFSПоддержка нескольких программных программRAIDУровень, так что если у вас нет оборудованияRAIDЭто особенно полезно. использовать“ Вариант”Кнопка может быть выбранаZFS RAIDУровень, вы можете выбрать там диск. Кроме того, вы можете установить дополнительные варианты (см. Ниже)。
Следующая страница просима только базовых параметров конфигурации, таких как ваше местоположение, часовой пояс и макет клавиатуры. Это местоположение используется для выбора сервера загрузки рядом с вами, чтобы ускорить обновление. Установщик обычно может автоматически определять эти настройки, поэтому только автоматическое обнаружение не удается или использовать вашу страну./Если вы не используете специальную раскладку клавиатуры, вам необходимо изменить их.
Затем вам нужно указать адрес электронной почты и суперпользователя (root)пароль. Пароль должен содержать, по крайней мере,5Compatis, но мы настоятельно рекомендуем вам иметь более высокий пароль интенсивности—Вот некоторые рекомендации:
- Минимальный срок действия пароля используется от 12 до 14 символов.
- Включает прописные и строчные буквы символы, цифры и символы.
- Избегайте повторяющиеся символы, клавиатурные, словарные слова, букву или цифровые последовательности, имена пользователей, родственник или домашние животное, романтические ссылки (текущие или прошлые) и биографическую информацию (например, идентификационные номера, ancest имени или дату).
Иногда необходимо отправить уведомление системному администратору, например:
- Информация о доступных пакетах программного обеспечения.
- Сообщение об ошибке от обычных хрон рабочих мест.
Все эти уведомления писем будет отправлено на указанный адрес электронной почты.
Заключительный шаг конфигурации сети. Пожалуйста, обратите внимание, что вы можете использовать здесьIPv4илиIPv6Но вы не можете использовать оба. Если вы хотите настроить двойной узел стека, вы можете настроить его после установки.
Если вы нажмете прямо сейчас“ Следующий шаг”Установка начнется форматирование диска и скопировать пакет к цели. Подождите, пока она не будет завершена, затем удалите установочный носитель и перезагрузите систему.
пройти черезProxmox WebИнтерфейс дополнительно сконфигурирован. Просто направьте браузер в процессе установкиIPадрес(https:// youripaddress:8006)。
Имя Логин по умолчанию «корень»PAM), А корень пароль определяется в процессе установки. |
2.2.1Отказ передовойLVMопция конфигурации
Установщик создаст именованныйpveОбъем группы (VG), А также имяroot,dataс участиемswapизДополнительный логический том (LVОтказ Размер этих объемов можно управлять с помощью:
размер HD
Определить общий размер HD для использования. Таким образом, вы можетеHDСохранить свободное пространство для дальнейшего раздела (т.е. используется на том же жестком дискеLVMХранение дополнительнойPVс участиемVG)。
размер Обмен
определениеобменРазмер суммы. По умолчанию размер установленной памяти, наименьший4 GB, максимальная8 GBОтказ Значение Результат не может быть больше, чемhdsize / 8。
Если установлено0Если вы не создаете какие-либообменколичество. |
Максимальный корень
Определение операционной системыкореньСамый большой размер тома.кореньМаксимальный предел размера громкостиhdsize / 4。
maxvz
определениеданныеМаксимальный размер суммы.данные Фактический размер суммы составляет:
размер данных= hdsize-размер Root-swapsize-minfree
когдапорядокdatasizeНе может быть больше, чем большаяmaxvz。
В случае тонких LVM,данныеБассейн будет создан толькопорядокdatasizeЭто больше, чем 4 ГБ. |
Если установлено0Если вы не создаете какие-либоданныеКоличество и настроить конфигурацию памяти соответственно. |
minfree
определениеLVMгруппа томовpveсерединаОставшееся доступное пространство. Если доступное пространство хранения превышает128GB, По умолчанию16GB,иначе Использоватьhdsize / 8。
LVM требует свободного пространства в VG для создания моментальных снимков (LVMTHIN снимки не требуется). |
2.2.2。ZFSДополнительные опции конфигурации
Программа установки создаст одинZFSБассейнrpoolОтказ выбиратьZFSНет подкачки не создается по умолчанию. Вы можете заказать некоторое непревзойденное пространство для обмена или создать переключатель после установки.zvolХотя последнее может вызвать проблемы (смZFSинструкции Обменные)。
изменение
Создан бассейн определениеКомпенсироватьценить. Нужно по крайней мере,КомпенсироватьУстановите размер сектора базового диска (КомпенсироватьКоличество2Для размеров сектора), или любой диск, который может быть размещен в бассейне (например, во время замены неисправного диска) установлен в положение.
компрессия
Определить, еслиrpoolАктивировать сжатие.
Проверьте и проверить
Определение должно бытьrpoolКакая контрольная сумма используется алгоритм.
копия
определениеrpoolизкопияпараметр. экзаменzfs(8)Семантика онлайн странице справки, и почему она не может заменить избыточность на уровне дисков.
размер HD
Определить общий размер HD для использования. Таким образом, вы можете сэкономить свободное пространство на жестком диске, чтобы сделать еще один раздел (например, создать раздел подкачки). hdsizeПодходит только для загрузочного диска, т.е.RAID0,RAID1илиRAID10Только первый диск или зеркало, иRAID-Z [123]Все диски среди них.
2.2.3。ZFSсоветы по производительности
ZFSИспользуйте много памяти, поэтому, если вы хотите использоватьZFSЛучше всего, чтобы добавить дополнительныеRAMОтказ Метод расчета приятно, каждыйTB RAWдисковое пространство4GBплюс1GB RAM。
ZFSОн также обеспечивает быстрое использованиеSSDПривод является функцией кэширования записи. кэш записиZFSЖурнал Намерение (ZILОтказ Вы можете добавить его с помощью следующей команды после установки:
zpoolДобавить к<pool-name>Бревно</ dev / path_to_fast_ssd>
2.3Отказ ИзUSBУстановка ручки памяти
Proxmox VEСреда установки смешиваетсяISOИзображение, он работает в двух направлениях:
- файл образа ISO готов к записи на компакт-диске
- Готовят исходный сектор (IMG) файл изображения непосредственно копируется на флэш-носителях (USB Memory Stick)
использоватьUSBпалки памяти быстрее, более экологически чистые, поэтому рекомендуется использоватьProxmox VEСпособ установки.
2.3.1Отказ Подготовьте одинUSBДрайвер вспышки в качестве средства установки
Для того, чтобы направлять среду установки, пожалуйста,ISOИзображение копияUSBСредняя.
Во-первых изhttps://www.proxmox.com/zh-CN/downloads/category/iso-images-pveскачатьISOИзображение
Вы должны по крайней мере один1 GBизUSBСредняя.
Используйте UNetbootin или Руфус. |
Убедитесь, что не установлен носитель USB и любые важные данные не включены. |
2.3.2。GNU / Linuxинструкция
Вы можете аналогичноUNIXПростое использование в системеddОтказ Сначала скачатьISOИзображение, а затем вставитьUSBКарта памяти. Вы должны выяснить, какие имена устройств назначаютсяUSBКарты памяти (см. ниже) Затем выполните команду:
dd if = proxmox-ve _ *。iso of = / dev / XYZ bs = 1M
Убедитесь в том, чтобы заменить / DEV / хуг, используя правильное имя устройства. |
Пожалуйста, будьте очень осторожны, не закрывайте ваш жесткий диск! |
Найти правильныйUSBнаименование оборудования
Вы можете сравнить до и после введенияdmesgПорядковый заказовНесколько линийИли используйтеlsblkПорядок. Откройте терминал и выполните команду:
lsblk
Затем вставьте вашUSBСредства массовой информации и снова выполните команду:
lsblk
Новое устройство появится, это то, что вы хотите использовать.USBоборудование.
2.3.3。OSXиллюстрировать
Откройте терминал (вSpotlightРасследованиеTerminal)。
Например, использованиеhdiutilизconvertВариант.isoПреобразование файлов в.img。
hdiutil convert -format UDRW -o proxmox-ve _ *。dmg proxmox-ve _ *。iso
OS X, как правило, автоматически положить конец .dmg на выходном файле. |
Чтобы получить список текущих устройств, снова выполните команду:
diskutilСписок
Теперь вставить свойUSBFlash Media и запустите эту команду еще раз, чтобы определить узлы устройств, присвоенные флэш-носитель (например,/ dev / diskX)。
diskutilСписок
diskutilУдаление диска/ dev / diskX
Замените X на номер диска в последней команде |
Nensdd if = proxmox-ve _ *。dmg of = / dev / rdiskX bs = 1m
НамереватьсяИспользование в последнем заказеrdiskXВместо тогоdiskXЭто позволит увеличить скорость записи |
2.3.4。Windowsиллюстрировать
Изhttps://etcher.ioскачатьEtcher ,выбиратьISOс участиемUSBВодитель.
Если это не работает, пожалуйста,http://www.osforensics.com/portability.htmlначальствоизOSForensics USBУстановщик
2.3.5Отказ ИзUSBСМИ начать сервер
будуUSBСМИ подключаются к серверу и убедитесь, что сервер отUSBРуководство (см. Серверы)BIOSОтказ Затем следуйте за мастером установки.
2.4Отказ существоватьDebianУстановкаProxmox VE
Proxmox VEДа как группаDebianПрограммный пакет предоставляется, чтобы вы могли установить его в стандартDebianВерх установки. После настройки репозиторияНужно запустить:
apt-getвозобновить
apt-getУстановите Proxmox-ve
В существующемDebianУстановка проста в установке, но предпосылка состоит в том, что вы правильно установили базовую систему и знаете, как настроить и использовать локальное хранилище. Конфигурация сети также полностью на вас.
Обычно это не легко, особенно в использовании.LVMилиZFSВремя.
Вы можетеWikiНайти подробное пошаговое руководство по эксплуатации 。
Обновлено: 04.04.2023
Опубликовано: 30.01.2020
Используемые термины: Proxmox VE, Linux.
В данной инструкции мы пошагово разберем способы установки Proxmox VE, базовую настройку и создание виртуальной машины. Proxmox основан на Debian — поэтому установку будем выполнять на данный дистрибутив Linux. В данной инструкции работа ведется на Proxmox версии 6.
Системные требования
Установка Proxmox
Из готового образа
Установка на Debian
Проверка установки
Базовая настройка
Как загрузить ISO-образ
Создание сетей
Bridge
NAT
Сеть между виртуалками
Создание виртуальной машины
Настройка виртуальной машины
Базовые настройки
Добавление диска
Добавление сетевого адаптера
Установка гостевого агента
Удаление виртуальной машины
Тюнинг Proxmox
Предупреждения об отсутствии подписки
Правильный сертификат
Создание нового пользователя
Ubuntu и CentOS
Решение возможных проблем
Дополнительная информация
Системные требования
Требования разделены на минимальные и рекомендованные:
Минимальные | Рекомендованные | |
---|---|---|
Процессор | 64bit с поддержкой технологии виртуализации Intel VT или AMD-V | |
Память | 1 Гб | 2 Гб для системы + для виртуальных машин. Дополнительно, если используется хранилище Ceph или ZFS, 1 Гб на наждый ТБ данных. |
Накопитель | HDD | SSD или NVMe |
Сеть | Сетевой адаптер | Минимум, 2 сетевых адаптера на 10 Гбит/сек. |
Поддержка виртуализации Intel VT или AMD-V может быть отключена на материнской плате. Для проверки заходим в БИОС — находим раздел настройки процессора (как правило, в пункте меню Advanced) — проверяем, что технология виртуализации (Intel VT, AMD-V, Virtualization Technology, VMX) включена (Enabled). Если мы хотим протестировать платформу и устанавливаем ее на виртуальную машину, то в ее настройках включаем поддержку технологии виртуализации. Например, в VMware ESX 6 в настройке виртуальной машины на вкладке Virtual Hardware раскрываем CPU и ставим галочку Expose hardware assisted virtualization to the guest OS:
Установка
Есть два варианта установки Proxmox VE — использовать готовый образ или установка на Debian. Мы рассмотрим оба.
Установка готового образа ISO
1. Переходим на страницу загрузки Proxmox официального сайта. Загружаем дистрибутив, например, Proxmox VE 6.1:
2. Если установка выполняется на виртуальную машину, монтируем образ. Если нет — создаем установочную флешку, например, с помощью WinSetupFromUsb или загрузочный диск с помощью InfraRecorder.
3. Загружаем сервер с установочного ISO — мы увидим окно приветствия Proxmox — выбираем пункт меню Install Proxmox VE:
4. Принимаем лицензионное соглашения, кликнув по I agree.
5. Выбираем диск, на который будет установлена система:
* при необходимости, кликаем по Options и задаем настройки файловой системы и размера раздела.
6. Пишем страну, временную зону, язык раскладки клавиатуры по умолчанию:
7. Вводим дважды пароль, который будет использоваться для пользователя root:
8. Прописываем сетевые настройки:
* где:
- Management Interface: сетевой интерфейс для управления сервером виртуальных машин.
- Hostname (FQDN): имя хоста для сервера.
- IP Address: IP-адрес нашего сервера.
- Netmask: маска подсети для сервера.
- Gateway: шлюз по умолчанию.
- DNS Server: сервер DNS.
9. В окне «Summary» проверяем введенные данные и кликаем по Install. Начнется процесс установки, который займет не более 10 минут.
10. После установки мы должны увидеть «Installation Successful» — перезагружаем сервер, кликнув по кнопке Reboot.
После переходим к проверке установки.
Установка на Debian
Если мы решили установить Proxmox на уже установленный Debian, выполняем следующую инструкцию.
При установке среды виртуализации меняется ядро Linux. Это может привести к потери работоспособности уже установленных сервисов. Таким образом, установку Proxmox следует выполнять на чистый сервер, а не тот, который уже используется для каких-либо задач.
1. Имя сервера должно разрешаться по его IP-адресу. Для этого либо добавляем А-запись в DNS, либо настраиваем на сервере файл hosts:
nano /etc/hosts
… и добавляем:
192.168.1.55 proxmox.dmosk.local proxmox
* где 192.168.1.55 — IP-адрес нашего сервера; proxmox — имя сервера; dmosk.local — наш домен, если используется.
2. Добавляем репозитории, которые будем устанавливать для установки Proxmox PE и дополнительных компонентов:
nano /etc/apt/sources.list
deb http://mirror.yandex.ru/debian/ buster main non-free contrib
deb-src http://mirror.yandex.ru/debian/ buster main non-free contrib
deb http://download.proxmox.com/debian/pve buster pve-no-subscription
Чтобы мы могли работать с репозиторием proxmox добавляем в систему цифровую подпись:
wget http://download.proxmox.com/debian/proxmox-ve-release-6.x.gpg -O /etc/apt/trusted.gpg.d/proxmox-ve-release-6.x.gpg
Обновляем список пакетов:
apt update
3. Устанавливаем Proxmox PE и компоненты:
apt install proxmox-ve open-iscsi
* где proxmox-ve — собственно, сам гипервизор; open-iscsi — iSCSI-клиент для подключения iSCSI-target-ов.
4. Перезагружаем сервер:
systemctl reboot
Проверка установки
В браузере открываем панель управления системой виртуализации по адресу https://<IP-адрес сервера>:8006. В открывшемся окне выбираем язык, вводим логин и пароль от пользователя root:
Должно открыться окно управления.
Начальная настройка
Чтобы начать использовать Proxmox и создать первую виртуальную машину, внесем небольшие настройки и подготовим гипервизор к работе.
1. Загрузка образов
Кликаем по Датацентр — и дважды по storage:
* мы можем создать отдельное хранилище для образов ISO. Для этого переходим в раздел Датацентр — Хранилище — Создать — Каталог.
Переходим в раздел Содержимое и кликаем по Загрузить:
В открывшемся окне выбираем ISO-образ системы, который будем устанавливать в качестве гостевой и кликаем по Загрузить. Ждем окончания копирования файла на сервер.
2. Создание сети для виртуальных машин
Мы рассмотрим примеры создания 2-х режимов сети — Bridge и NAT.
Независимо от способа установки Proxmox, необходимо подключиться к хосту по SSH и установить пакет ifupdown2 командой:
apt install ifupdown2
* ifupdown2 — утилита для конфигурации сетевого интерфейса (по сути, аналог ifupdown, написанный на языке Python).
… в противном случае, при попытке применить сетевые настройки мы получим ошибку you need ifupdown2 to reload networking (500).
Bridge
Сеть, работающая в данном режиме позволяет виртуальной машине видеть локальную сеть, как будто это отдельно стоящее устройство. Данный режим лучше всего подойдет для серверов, стоящих в локальной сети компании.
Работать с режимом Bridge нужно очень осторожно. Любое неправильное действие и удаленный доступ к серверу будет потерян. Если работы ведутся на удаленном сервере, рекомендуется сначала потренироваться на какой-нибудь локальной машине.
Также стоит отметить, что при установке PVE из установочного ISO-образа, один Bridge уже будет создан.
Для создания бриджа в панели управления кликаем по нашему серверу Proxmox — переходим в раздел Система — Сеть — обратите внимание, чтобы в системе не было bridge-интерфейсов:
… иначе, создавать его не обязательно.
Открываем настройки сетевого интерфейса, через который будет работать наш мост и удаляем шлюз:
* если мы не сделаем этого, то при настройке Bridge мы получим ошибку Parameter verification failed. (400). gateway: Default gateway already exists on interface ‘ens160’.
Нажимаем Создать и выбираем Linux Bridge:
В открывшемся окне заполняем поля IPv4/CIDR, Шлюз (IPv4), Порты сетевого моста:
* в данном примере мы задаем IP-адрес, на котором будет работать Proxmox (чтобы ничего не перепутать, можно задать IP-адрес физического интерфейса, который будет задействован под Bridge); маска указывается в нотации CIDR и в нашем примере это 24 или 255.255.255.0; в качестве физического интерфейса наш bridge будет использовать ens160.
… нажимаем Создать.
Кликаем по Apply Configuration, чтобы применить сетевые настройки:
Подтверждаем действия.
NAT
Данный режим сети активно применяется в случае аренды сервера, где количество IP-адресов лимитировано. В данном случае, все виртуальные машины будут находисться за NAT, в качестве которого выступает сам Proxmox.
Сам интерфейс мы делаем из панели управления. Но чтобы виртуальные машины могли выходить в Интернет через сеть NAT, необходимо на самом хосте включить редирект и маскарадинг.
Создание нового bridge-интерфеса
Итак, кликаем по нашему серверу Proxmox — переходим в раздел Система — Сеть — нажимаем Создать и выбираем Linux Bridge:
Оставляем имя vmbr1 или пишем любое другое, прописываем IP-адрес с маской сети, в которой будут находиться серверы за NAT:
Нажимаем Создать. Применяем настройки:
Сеть настроена.
Настройка ядра и брандмауэра
Подключаемся к серверу по SSH. Открываем на редактирование файл настройки ядра:
nano /etc/sysctl.d/99-sysctl.conf
… и добавляем разрешение на редирект:
net.ipv4.ip_forward=1
После применяем настройки:
sysctl -p /etc/sysctl.d/99-sysctl.conf
Добавляем правило в брандмауэр:
iptables -t nat -I POSTROUTING -s ‘192.168.122.0/24’ -o vmbr0 -j MASQUERADE
* в данном примере мы создали правило для маскарадинга всех пакетов из подсети 192.168.122.0/24 и для исходящего интерфейса vmbr0. Обратите внимание, что если у нас будет другая подсеть и исходящий интерфейс для сети Интернет, то нужно будет задать другие значения.
Ставим утилиту для сохранения правил iptables:
apt install iptables-persistent
… и сохраняем правила в процессе установки или командой:
netfilter-persistent save
Наш NAT настроен.
Сеть между виртуалками
Данная сеть — частный случай NAT без выхода в Интернет. Мы должны создать бридж с отдельной подсетью без шлюза. При добавлении виртуальным машинам данного сетевого адаптера мы сможем настроить их взаимодействие по внутренней сети.
Создаем бридж, как делали это ранее:
Настраиваем новый интерфейс — задаем имя или оставляем тот, что предложит система, а также указываем IP-адрес:
Создаем интерфейс. Готово — при создании или редактировании виртуалок, мы можем указывать с качестве интерфейса созданный бридж (в данном примере, vmbr2) для изоляции их в отдельную подсеть 192.168.150.0/24.
Создание виртуальной машины
Базовая настройка закончена — можно опробовать наш гипервизор в деле.
В правой верхней части панели управления кликаем по Создать VM:
В открывшемся окне снизу сразу ставим галочку Расширенный:
Задаем имя виртуальной машине и ставим галочку Запуск при загрузке (если хотим, чтобы виртуалка запускалась автоматически с сервером PVE):
* в данном примере мы задали имя FS. При желании, также можно изменить VM ID, но он проставляется автоматически и имеет правильное значение.
Выбираем загруженный нами ISO-образ, с которого будем ставить операционную систему, задаем тип гостевой операционной системы и ее версию:
* в данном примере мы будем устанавливать Linux Ubuntu. Среди списка операционных систем также доступны Microsoft Windows, Solaris и Other.
На вкладке Система можно оставить все значения по умолчанию:
* в некоторых случаях, необходимо выбрать другую видеокарту (при установке систем с GUI), а также особый вариант БИОС.
Задаем размер жесткого диска:
* 16 Гб для Ubuntu достаточно, однако, для наших задач расчет должен быть индивидуальным для каждой создаваемой виртуальной машины.
Мы можем задать количество процессоров и ядер:
* в данном примере мы создаем виртуалку с 2 процессорами, каждый из который с 2 ядрами, итого, 4. Для ненагруженных систем можно оставить значение по умолчанию.
Выделяем память:
* наша Ubuntu будет работать с 2 Гб оперативной памяти.
Выбираем созданный нами бридж — либо для получения прямого адреса из сети, либо для NAT:
* в данном примере, мы указали vmbr0 для подключения к сети напрямую.
Ставим галочку, чтобы виртуальная машина сразу запустилась после создания:
… и нажимаем Готово. Ждем окончания процесса и переходим к консоли:
Мы должны увидеть загрузку с ISO-образа.
Настройка виртуальной машины
После создания виртуальной машины нам может понадобиться ее изменить. Рассмотрим процесс настройки на примере изменения некоторых параметром, а также добавления диска и сетевого адаптера.
Полезные настройки
Для начала, переходим к виртуальной машине — Параметры:
На мой взгляд, чаще всего могут понадобиться следующие настройки:
- Имя — имя виртуальной машины.
- Запуск при загрузке — для серверов данный параметр должен быть активирован.
- Порядок загрузки — позволяет определить, с какого устройства должна запуститься виртуалка в первую очередь.
Для изменения параметра, просто кликаем по нему дважды, меняем значение и нажимаем OK.
Добавление дискового накопителя
Переходим в подраздел Оборудование — кликаем по Добавить и выбираем Жесткий диск:
В открывшемся окне задаем размер диска и нажимаем OK.
Для увеличения размера имеющегося диска устанавливаем на него курсов и кликаем по Изменить размер диска:
В открывшемся окне задаем объем, на который нужно увеличить дисковое пространство.
Добавление сетевого адаптера
Переходим в подраздел Оборудование — кликаем по Добавить и выбираем Сетевое устройство:
Как при создании ВМ, выбираем тип сетевого адаптера (бридж или нат) и нажимаем Добавить.
Установка гостевого агента
Обязательная процедура для повышения производительности и возможностей работы с виртуальной машиной. Настройка выполняется как на гипервизоре, так и в самой виртуальной машине. Рассмотрим пример установки агента на базе системы Linux.
В гипервизоре переходим в Параметры, находим пункт QEMU Guest Agent и кликаем по нему:
Ставим галочку Use QEMU Guest Agent и нажимаем OK:
Для применения настройки нужно выключить и включить виртуальную машину.
Теперь подключаемся к виртуальной машине и устанавливаем утилиту. В зависимости от типа Linux команды будут отличаться.
а) DEB-based:
apt update
apt install qemu-guest-agent
б) RPM-based:
yum install qemu-guest-agent
Установка завершена.
Для запуска сервиса выполняем:
systemctl enable qemu-guest-agent —now
В сводке виртуальной машины мы теперь можем увидеть информацию об IP-адресе, которая получена при помощи гостевого агента.
Подробнее процесс описан на странице https://pve.proxmox.com/wiki/Qemu-guest-agent.
Удаление виртуальной машины
Для удаления виртуальной машины, сначала ее отключаем — это можно сделать из операционной системы или из панели управления, нажав на стрелку вниз рядом с Выключить — Остановка:
После кликаем по Дополнительно — Удалить:
В открывшемся окне мы должны подтвердить свои намерения удалить виртуальную машину, вписав ее идентификатор:
* если мы поставим галочку Purge, то виртуальная машина будет удалена полностью вместе с виртуальным диском.
Кликаем по Удалить — готово.
Тюнинг сервера PVE
Внесем несколько изменений, которые сделают работу с Proxmox VE удобнее.
Отключение предупреждения об отсутствии подписки
Каждый раз при заходе в панель управления мы будем видеть такое предупреждение:
Оно говорит нам о том, что мы используем бесплатную версию программного продукта. Чтобы сообщение нас не беспокоило, выполним 2 действия:
- Отключим платный репозиторий для получения пакетов proxmox.
- Отредактируем файл js для отключения данного сообщения.
И так, в SSH открываем на редактирование репозиторий proxmox:
nano /etc/apt/sources.list.d/pve-enterprise.list
Приводим его к виду:
#deb https://enterprise.proxmox.com/debian/pve buster pve-enterprise
deb http://download.proxmox.com/debian/pve stretch pve-no-subscription
* мы закомментировали репозиторий pve-enterprise и добавили pve-no-subscription.
** при большом желании, можно удалить файл репозитория с именем pve-enterprise.list и создать новый — кому как будет удобнее.
Добавляем gpg-ключ для репозитория:
apt-key adv —keyserver keyserver.ubuntu.com —recv-keys 0D9A1950E2EF0603
После обновим список пакетов:
apt update
Последнее — редактируем файл /usr/share/javascript/proxmox-widget-toolkit/proxmoxlib.js (перед этим его сохраняем):
cp /usr/share/javascript/proxmox-widget-toolkit/proxmoxlib.js /usr/share/javascript/proxmox-widget-toolkit/backup_proxmoxlib.js
sed -i «s/getNoSubKeyHtml:/getNoSubKeyHtml_:/» /usr/share/javascript/proxmox-widget-toolkit/proxmoxlib.js
* данной командой мы находим getNoSubKeyHtml в файле /usr/share/javascript/proxmox-widget-toolkit/proxmoxlib.js и меняем на getNoSubKeyHtml_.
Закрываем окно браузера с Proxmox, если оно было открыто и запускаем его снова. Входим в систему — сообщение не должно появиться.
Сертификаты
Сервер PVE устанавливается с самоподписанным сертификатом. Это означает, что при подключении к панели управления мы будем видеть предупреждение от системы безопасности. Чтобы браузер принимал сертификат, он должен соответствовать следующим требованиям:
- Быть выдан доверенным центром сертификации или зарегистрированным в вашей локальной сети, например, локальный AD CS.
- Быть для доменного имени, по которому мы заходим в панель управления.
- Иметь актуальные даты начала действия и окончания.
При этом, мы не должны заходить в панель управления по IP-адресу — в противном случае, независимо от сертификата, мы все-равно, получим предупреждение.
И так, сам сертификат можно купить, запросить бесплатно у Let’s Encrypt или создать с использованием локального центра сертификации, например, по данной инструкции. После у нас есть, как минимум, два способа загрузить его.
а) Установка сертификата с помощью графического интерфейса
Получив сертификат, открываем панель управления PVE и переходим к серверу — Система — Сертификаты — кликаем по Загрузить пользовательский сертификат:
В открывшемся окне заполняем поля для закрытого и открытого ключей:
… и нажимаем Загрузить. Система предупредит, что загрузится с новым сертификатом — необходимо закрыть вкладку в браузере и открыть консоль управления снова. Если сертификат загружен правильный, мы не увидим предупреждения.
б) Установка сертификата из командной строки
После развертывания Proxmox создается 2 файла в каталоге /etc/pve/nodes/<имя ноды> (например, /etc/pve/nodes/pve/) с именами pve-ssl.key и pve-ssl.pem. Их нужно заменить.
Сначала создадим их копию:
mkdir -p /backup/proxmox/ssl
cp /etc/pve/nodes/pve/pve-ssl.* /backup/proxmox/ssl/
Предположим, что мы получили сертификаты с помощью Let’s Encrypt и они находятся по пути /etc/letsencrypt/live/pve.dmosk.ru. Тогда копируем нужны ключи:
cp /etc/letsencrypt/live/pve.dmosk.ru/fullchain.pem /etc/pve/nodes/pve/pve-ssl.pem
cp /etc/letsencrypt/live/pve.dmosk.ru/privkey.pem /etc/pve/nodes/pve/pve-ssl.key
Возможно, вы подумаете, что для сертификатов Let’s Encrypt лучше создавать симлинки, вместо копирования файлов. Однако, для каталога /etc/pve создается FUSE файловая система, которая не поддерживает симлинки.
Перезапускаем сервисы:
systemctl restart pvestatd pvedaemon pve-cluster corosync
Создание нового пользователя
При установке PVE создается пользователь root. Рассмотрим процесс добавления еще одного через командную строку.
Подключаемся по SSH или открываем консоль из панели управления. Создаем пользователя в системе:
useradd user
* где user — имя создаваемого пользователя.
После создаем нового пользователя в Proxmox:
pveum useradd user@pam
* в данном примере мы создали пользователя user в области pam.
Задаем пароль:
pveum passwd user@pam
Задаем роль для созданного пользователя, например, административную:
pveum aclmod / -user user@pam -role Administrator
* весь список ролей можно посмотреть в панели администрирования в разделе Датацентр — Разрешения — Роли.
Ubuntu и CentOS
Возможно, кому-то захочется установить Proxmox именно на Ubuntu или CentOS. К сожалению, разработчики остановились на Debian. Возможно, есть неофициальные обходные пути установки Proxmox на другие дистрибутивы Linux, однако такой путь не является приемлемым для продуктивной среды. Для настройка виртуализации на Ubuntu и CentOS предлагаю инструкции:
1. Установка и настройка KVM на CentOS 7
2. Настройка KVM на Ubuntu Server
Возможные ошибки
Рассмотрим некоторые ошибки, с которыми столкнулся я.
Falling back to a fallback locale
Ошибка появляется при установке гостевой утилиты на компьютер с Linux, а также выполнении некоторых других команд.
Причина: это связано с настройками локали в вашей системе. Скорее всего, среди вариантов языковых настроек не перечислен en_US.UTF-8.
Решение: исходя из причины, нам нужно правильно настроить локаль. Это можно сделать в интерактивном режиме командой:
dpkg-reconfigure locales
После выбираем нужные локали, например: en_US.UTF-8 и ru_RU.UTF-8.
Также можно просто отредактировать файл:
vi /etc/locale.gen
Необходимо снять комментарий с en_US.UTF-8:
…
en_US.UTF-8 UTF-8
…
После вводим:
locale-gen
Настраиваем формат времени и определяем язык интерфейса:
export LC_TIME=ru_RU.utf8
update-locale LANG=en_US.UTF-8
Гостевая служба помечена как masked
Мы можем заметить, что служба qemu-guest-agent не запускается со статусом masked:
qemu-guest-agent.service
Loaded: masked (/dev/null; bad)
Active: inactive (dead)
Причина: в некоторых операционных системах (я столкнулся в Astra Linux) по умолчанию сервис qemu-guest-agent маскируется.
Решение: маскировку можно снять простой командой:
systemctl unmask qemu-guest-agent
После перечитываем конфигурацию daemon-reload:
systemctl daemon-reload
Можно разрешить запуск сервиса и стартовать его:
systemctl enable qemu-guest-agent —now
Читайте также
Следующие инструкции также могут показаться вам полезными:
1. Настройка кластера Proxmox VE.
2. Конвертирование виртуального диска Proxmox в диск VMware.
3. Включение вложенной виртуализации в Proxmox.