您的位置:首页 > 健康 > 养生 > 制作网页视频教程_广州网站制作教程_营销型网站seo_北京网站优化常识

制作网页视频教程_广州网站制作教程_营销型网站seo_北京网站优化常识

2025/7/4 23:28:03 来源:https://blog.csdn.net/m0_50657013/article/details/146801180  浏览:    关键词:制作网页视频教程_广州网站制作教程_营销型网站seo_北京网站优化常识
制作网页视频教程_广州网站制作教程_营销型网站seo_北京网站优化常识

Proxmox VE(PVE)提供了一个基于 Web UI(管理界面)的虚拟化管理平台,用户可以通过浏览器管理 虚拟机(VM)、容器(LXC)、存储、网络、备份、用户权限等

一、PVE Web 界面功能详解

PVE 的 Web 管理界面分为 左侧导航栏(资源树)右侧管理面板,主要包括以下核心功能:

1. 数据中心(Datacenter)

位置: 界面左侧最顶层的节点
用途: 适用于 集群管理、全局配置

🔹 主要功能

子功能作用
集群(Cluster)管理 PVE 集群节点(多个服务器组成的 PVE 集群)
存储(Storage)添加/管理存储池(ZFS、Ceph、NFS、iSCSI 等)
备份(Backup)配置 自动备份任务,支持快照、增量备份
用户(Users)& 权限(Permissions)创建/管理 用户、权限、API 访问
防火墙(Firewall)配置集群级别的 防火墙规则
订阅(Subscription)显示企业订阅信息(无订阅会提示警告)

适用场景

  • 适用于 多台 PVE 服务器组成的集群管理

  • 统一管理 存储、权限、备份策略

2. 节点(Node)

位置: 数据中心下的每台服务器节点
用途: 管理单个 PVE 服务器的资源(CPU、内存、存储、网络等)

🔹 主要功能

子功能作用
摘要(Summary)显示 CPU、内存、磁盘、网络 IO 统计
系统(System)管理 服务器 hostname、时区、更新
网络(Network)配置 桥接网络、VLAN、绑定(bonding)
存储(Disks & Storage)管理服务器本地 磁盘、ZFS 存储、RAID
任务(Tasks)监控任务状态(备份、迁移、启动等)
日志(Logs)查看系统日志,排查问题
Shell 终端远程 SSH 登录管理服务器

适用场景

  • 管理单台 PVE 服务器(虚拟化资源、存储、网络)

  • 网络配置(VLAN、桥接、Bonding)

3. 虚拟机(VM)

位置: 选中某个节点后,点击“虚拟机”
用途: 创建、管理 KVM 虚拟机(VM)

🔹 主要功能

子功能作用
概览(Summary)显示 VM CPU、内存、磁盘使用情况
硬件(Hardware)配置 CPU、内存、磁盘、网卡、PCI 直通(Passthrough)
选项(Options)设置 VM 自动启动、引导顺序、QEMU Guest Agent
快照(Snapshots)创建 VM 快照(Snapshot),支持回滚
备份(Backup)手动备份 VM,或配置 定期自动备份
云初始化(Cloud-Init)用于 云环境 VM 自动初始化
控制台(Console)远程连接 VM(VNC、Spice)
日志(Logs)查看 VM 运行日志

适用场景

  • 创建 Windows/Linux KVM 虚拟机

  • PCI 直通(GPU、网卡),用于 AI、NAS、网络优化

  • 通过 快照/备份 保护 VM 数据安全

4. 容器(LXC)

位置: 选中某个节点后,点击“容器”
用途: 管理轻量级 LXC 容器(比 VM 更轻量)

🔹 主要功能

子功能作用
概览(Summary)显示 LXC 容器 CPU、内存、磁盘
硬件(Hardware)调整 CPU、内存、磁盘、挂载点
备份(Backup)备份/恢复 LXC 容器
控制台(Console)远程访问 LXC 容器
日志(Logs)查看 LXC 容器运行日志

适用场景

  • Web 服务器、数据库(比 VM 轻量,占用资源更少)

  • 轻量级应用(如 Home Assistant、NAS 服务等)

5. 存储(Storage)

位置: 数据中心 → 存储
用途: 管理 PVE 存储资源(本地磁盘、NFS、Ceph、ZFS)

🔹 主要存储类型

存储类型用途
本地磁盘(Directory)存放 VM 磁盘、ISO、备份
ZFS(RAID + 存储池)高性能存储,可做 快照、复制
Ceph(分布式存储)适用于 PVE 集群高可用存储
NFS / iSCSI / CIFS远程存储,适合 NAS 设备

适用场景

  • 小型环境:ZFS 本地存储(快照 + RAID)

  • 大规模集群:Ceph 分布式存储

6. 备份(Backup)

位置: 数据中心 → 备份
用途: 定期自动备份 VM/LXC,防止数据丢失

支持功能

  • 快照备份(Snapshot)

  • 增量备份(Proxmox Backup Server,节省存储空间)

  • 定时任务(自动备份)

  • 远程存储(NFS、PBS 服务器)

适用场景

  • 企业级数据保护(备份重要 VM,防止数据丢失)

  • 异地备份(PBS + 远程存储)

7. 用户 & 权限(User & Permissions)

位置: 数据中心 → 用户/权限
用途: 管理用户角色和权限

支持功能

  • 多用户管理(管理员、运维、只读用户)

  • API 访问控制(Proxmox API 权限)

  • LDAP/Active Directory 认证

适用场景

  • 多管理员管理 PVE(限制不同用户权限)

  • 企业 IT 认证系统(LDAP 集成)

总结

PVE Web UI 提供了完整的虚拟化管理能力,集成 VM、LXC、存储、备份、权限等功能,适用于企业私有云、IT 运维管理、个人服务器等场景。 🚀

二、PVE网络介

Proxmox VE(PVE) 中,网络管理是核心组件之一,涉及 虚拟机(VM)、容器(LXC)、存储、集群、高可用(HA)等,正确的网络配置可以提升性能、可用性和安全性。

1. PVE 网络管理概述

PVE 默认使用 Linux 网络栈,支持 Linux Bridge(桥接)、VLAN、Bonding(链路聚合)、SDN(软件定义网络)等,可以灵活配置不同的网络方案。

🛠 核心网络概念:

组件作用
Linux Bridge(桥接)让 VM/LXC 通过物理网卡访问网络(类似交换机)
VLAN(虚拟局域网)逻辑隔离 VM/LXC 网络,提高安全性
Bonding(链路聚合)绑定多个物理网口,提高带宽和冗余
SDN(软件定义网络)适用于大规模集群,支持 VXLAN、BGP 等
NAT(网络地址转换)适用于无公网 IP 的 PVE 服务器

2. PVE 网络配置界面

位置: PVE Web 界面 → 选择节点 → 网络(Network)

网络(Network) 选项卡中,你可以看到:

  • 物理网卡(eth0、eth1、eno1等)

  • 桥接网络(vmbr0, vmbr1等)

  • VLAN 设备(vlan10, vlan20等)

  • Bonding(bond0, bond1等)

3. 常见网络配置方案

3.1 桥接网络(Bridge)

✅ 适用场景:

  • 单台 PVE小型集群,让 VM/LXC 直接访问物理网络

  • 适用于家庭服务器、企业私有云

📌 配置步骤(Web UI)

  1. 创建 Linux Bridge(桥接)

    • 节点 → 网络 → 创建 → Linux Bridge

    • 名称: vmbr0

    • 网卡: 选择 eth0(或者其他物理网卡)

    • IP 地址: 配置 PVE 管理 IP(如 192.168.1.100/24

    • 网关: 填写路由器 IP(如 192.168.1.1

  2. 绑定虚拟机

    • 创建 VM/LXC 时,网卡选择 vmbr0(相当于 VM 连接到交换机)

示例 interfaces 配置文件

auto lo
iface lo inet loopback# 物理网卡(无 IP)
auto eth0
iface eth0 inet manual# 桥接网络(给 PVE & VM 用)
auto vmbr0
iface vmbr0 inet staticaddress 192.168.1.100/24gateway 192.168.1.1bridge_ports eth0bridge_stp offbridge_fd 0

📌 效果:

  • PVE 本机 IP192.168.1.100

  • VM/LXC 直接访问路由器,获取 IP(DHCP 或静态分配)

3.2 VLAN(虚拟局域网)

✅ 适用场景

  • 隔离不同 VM/LXC 网络

  • 企业级环境(提高安全性)

📌 配置步骤

  1. 启用 VLAN

    • 节点 → 网络 → 编辑 vmbr0

    • VLAN 选项:开启 VLAN 感知(VLAN Aware)

  2. 创建 VM/LXC 并分配 VLAN

    • VM 网卡 → 高级 → VLAN Tag(如 10)

示例 interfaces 配置

auto eth0
iface eth0 inet manualauto vmbr0
iface vmbr0 inet manualbridge_ports eth0bridge_stp offbridge_fd 0bridge_vlan_aware yes

📌 效果:

  • VM 1(VLAN 10) → 只能访问 VLAN 10 的设备

  • VM 2(VLAN 20) → 只能访问 VLAN 20 的设备

  • PVE 本机 仍能访问所有 VLAN

3.3 Bonding(链路聚合)

✅ 适用场景

  • 提高带宽 & 负载均衡

  • 高可用(防止单网口故障)

📌 配置步骤

  1. 创建 Bonding

    • 节点 → 网络 → 创建 → Bond

    • 模式:LACP(802.3ad)

    • 绑定网卡:eth0 + eth1

  2. 创建桥接并连接 Bond

    • 创建 vmbr0

    • 桥接端口:bond0

示例 interfaces 配置

auto bond0
iface bond0 inet manualbond-slaves eth0 eth1bond-mode 802.3adbond-miimon 100auto vmbr0
iface vmbr0 inet staticaddress 192.168.1.100/24gateway 192.168.1.1bridge_ports bond0bridge_stp offbridge_fd 0

📌 效果:

  • PVE 服务器 & VM 使用双网口(LACP 绑定)

  • 提升带宽 & 可靠性

3.4 NAT(适用于无公网 IP)

✅ 适用场景

  • PVE 服务器无公网 IP

  • VM/LXC 需要访问外网

📌 配置步骤

  1. 创建内部网桥(vmbr1)

  2. 启用 NAT

    • iptables 配置转发规则

示例 interfaces 配置

auto vmbr1
iface vmbr1 inet staticaddress 192.168.100.1/24bridge_ports nonebridge_stp offbridge_fd 0post-up echo 1 > /proc/sys/net/ipv4/ip_forwardpost-up iptables -t nat -A POSTROUTING -s 192.168.100.0/24 -o eth0 -j MASQUERADEpost-down iptables -t nat -D POSTROUTING -s 192.168.100.0/24 -o eth0 -j MASQUERADE

📌 效果:

  • VM(192.168.100.x)可通过 NAT 访问外网

  • 但外网无法访问 VM(需要端口转发)

4. 总结

方案适用场景特点
桥接(Bridge)小型环境VM 直连物理网络
VLAN多部门隔离VM 只能访问特定 VLAN
Bonding高可用 & 负载均衡提高带宽,防止单点故障
NAT无公网 IPVM 通过 PVE 出网

📌 最佳实践建议

  • 小型环境(家庭/小企业) → 桥接 + VLAN

  • 企业私有云 → VLAN + Bonding

  • 无公网 IP 服务器 → NAT

这样,你可以根据 需求 选择合适的 PVE 网络配置 🚀

三、PVE网络管理

PVE(Proxmox Virtual Environment) 没有像 VMware vSwitch(虚拟交换机) 这样的概念,而是直接使用 Linux Bridge(桥接网络) 作为虚拟机和物理网络之间的桥梁。

对比项PVE(Proxmox VE)VMware ESXi
虚拟交换机❌ 无独立 vSwitch,使用 Linux Bridge✅ 具有 vSwitch(标准交换机、分布式交换机)
默认网络模式Linux Bridge(vmbr0)vSwitch(vSwitch0)
VLAN 支持✅ 支持 VLAN Aware✅ 支持 VLAN 端口组
链路聚合Bonding(Linux Bonding)✅ LAG / LACP
SDN 支持✅ 通过 Proxmox SDN 插件✅ vDS(分布式交换机)
NAT 支持✅ 通过 Linux iptables❌ 需要 NSX 或物理路由
防火墙✅ Linux iptables✅ VMware NSX

1. PVE 使用 Linux Bridge(桥接网络)

VMware ESXi 里,每个 ESXi 主机都会有一个 vSwitch(标准交换机或分布式交换机),然后你可以在 vSwitch 上创建 端口组(Port Group) 并分配 VLAN。

但在 PVE 中,它不需要 vSwitch,而是使用 Linux 自带的 桥接(Bridge) 机制。Linux Bridge 直接模拟一个二层交换机,所有连接到它的虚拟机就像插入了物理交换机一样。

默认情况下,PVE 创建的 vmbr0 就是一个虚拟交换机

  • 物理网卡(eth0) 连接到 vmbr0

  • VM/LXC 的网卡(vnet0、vnet1...) 连接到 vmbr0

  • vmbr0 负责数据转发,相当于 vSwitch

📌 示例:PVE vmbr0 配置

auto eth0
iface eth0 inet manualauto vmbr0
iface vmbr0 inet staticaddress 192.168.1.100/24gateway 192.168.1.1bridge_ports eth0bridge_stp offbridge_fd 0

📌 效果:

  • vmbr0 相当于 VMware vSwitch

  • 所有 VM 连接 vmbr0,就能访问物理网络

2. VLAN 管理(类似 VMware 端口组)

VMware vSwitch 里,我们可以创建 端口组(Port Group),并分配不同的 VLAN ID。

PVE 里,我们可以直接在 Linux Bridge(vmbr0)上启用 VLAN 感知(VLAN Aware),然后给 VM 绑定 VLAN。

在 PVE Web UI 里启用 VLAN

  1. 进入 PVE Web UI

    • 节点 → 网络 → 编辑 vmbr0

    • 勾选 VLAN Aware(支持 VLAN 感知)

  2. 创建 VM 并绑定 VLAN

    • VM → 网络设备 → VLAN Tag

    • 填写 VLAN ID(如 10)

示例 VLAN 配置(手动 interfaces 文件)

auto vmbr0
iface vmbr0 inet manualbridge_ports eth0bridge_vlan_aware yes  # 启用 VLAN 感知

📌 效果:

  • VM1(VLAN 10) → 只能访问 VLAN 10

  • VM2(VLAN 20) → 只能访问 VLAN 20

  • PVE 本机仍然可以访问所有 VLAN

3. Bonding(等效 VMware LAG / LACP)

VMware 里,我们可以创建 LAG(链路聚合组) 或者 LACP(动态链路聚合),提升带宽和可靠性。

PVE 里,我们使用 Linux Bonding 实现相同的效果。

PVE 绑定两个网卡(eth0 + eth1)

auto bond0
iface bond0 inet manualbond-slaves eth0 eth1bond-mode 802.3ad  # LACP 模式bond-miimon 100auto vmbr0
iface vmbr0 inet staticaddress 192.168.1.100/24gateway 192.168.1.1bridge_ports bond0

📌 效果:

  • 双网卡绑定,实现负载均衡

  • 高可用(一个网卡故障,仍然能访问网络)

4. SDN(等效 VMware NSX)

VMware 有 NSX-T(软件定义网络),用于 VXLAN、BGP 路由等

PVE 也支持 SDN(软件定义网络),但需要 安装 Proxmox SDN 插件

PVE SDN 支持的功能

功能VMware NSXProxmox SDN
VXLAN
BGP 动态路由
防火墙✅(iptables)
NAT / DNAT

📌 适用于大规模集群,适合云计算平台

5. 总结

功能PVE(Proxmox VE)VMware ESXi
虚拟交换机❌ 无 vSwitch,使用 Linux Bridge✅ vSwitch(标准/分布式)
VLAN 支持✅ VLAN Aware✅ VLAN Port Group
链路聚合✅ Bonding✅ LACP / LAG
NAT 支持✅ iptables❌ 需要 NSX
SDN✅ Proxmox SDN✅ NSX-T
防火墙✅ iptables✅ NSX 分布式防火墙

适用场景建议

  • 小型企业 / 个人服务器 → PVE 桥接网络(Linux Bridge)

  • 企业环境(多 VLAN) → VLAN + Bonding

  • 大型 SDN / 云计算 → Proxmox SDN(VXLAN、BGP)

 🔹 总结一句话:
PVE 没有 VMware vSwitch,但 Linux Bridge + VLAN + Bonding 足以满足大多数需求,并且 更加灵活和开源 🚀

四、PVE(Proxmox Virtual Environment)的 HA(高可用)功能

Proxmox VE(PVE) 提供了 HA(High Availability,高可用性) 功能,使虚拟机(VM)和容器(LXC)能够在物理节点故障时自动迁移,保持业务连续性。

1. PVE HA 的核心概念

PVE HA 主要基于 集群(Cluster)HA 资源管理器(HA Manager),确保 VM 和容器在主机宕机后能够自动恢复。

组件作用
Proxmox Cluster(集群)由多个 PVE 节点组成,支持 HA 管理
HA Manager(HA 管理器)负责监测节点健康状态,执行 HA 任务
Corosync负责集群通信,确保 HA 管理同步
Fence(隔离机制)防止 "脑裂" 现象,确保宕机节点不会误操作
Live Migration(实时迁移)在主机健康状态下手动迁移 VM

📌 HA 的核心目标:

  • 自动故障切换:如果某个节点故障,VM/容器会自动启动到其他健康节点

  • 高可用性:最大限度减少宕机时间

  • 自动恢复:系统自动检测失败节点,并在可用节点上恢复 VM/容器

2. HA 工作原理

🟢 正常运行

  1. 所有节点正常,VM 运行在各自的 PVE 服务器上。

  2. Corosync 负责集群内的状态同步,所有节点都知道彼此的状态。

🔴 发生故障

  1. 某个 PVE 节点宕机(如服务器断电)。

  2. HA Manager 通过 Corosync 发现该节点丢失心跳

  3. Fence(隔离机制)触发,防止脑裂(如果启用了 STONITH)。

  4. HA Manager 自动将 VM 迁移到其他健康节点 并启动。

🟢 故障恢复

  1. 故障节点恢复后,VM 仍然运行在迁移后的新节点

  2. 管理员可以手动迁移 VM 回到原始节点

3. 配置 PVE HA

📌 3.1 创建 PVE 集群

  • 第一台 PVE 服务器:创建集群

pvecm create my-cluster
  •  其他 PVE 服务器:加入集群
pvecm add <主节点IP>
  • 检查集群状态
pvecm status

示例输出

Cluster information
-------------------
Name: my-cluster
Nodes: 3
Quorum: 2

📌 3.2 配置 HA

启用 HA 管理器

systemctl enable --now pve-ha-lrm pve-ha-crm

在 Web 界面

  • 进入 Datacenter(数据中心)→ HA

  • 选择 “HA 资源” 并添加 VM / LXC

  • 设置 恢复策略(Recovery Policy):

    • restart(重启 VM)

    • migrate(自动迁移 VM)

4. HA 资源的恢复策略

策略说明
Disabled(禁用)资源不会 HA 保护
Freeze(冻结)保持资源当前状态
Restart(重启)VM/容器将在相同节点上自动重启
Migrate(迁移)VM/容器将在其他节点上启动

5. 使用 HA 时的最佳实践

建议至少 3 台 PVE 服务器,确保 集群仲裁(Quorum)
启用 Fencing(隔离机制),防止脑裂(STONITH + IPMI)
使用共享存储(Ceph、NFS、iSCSI),确保 VM 迁移不丢数据
使用 Bonding 提升网络可用性,防止网络单点故障
定期检查 HA 状态

ha-manager status

6. 总结

  • PVE HA 允许 VM/LXC 在节点故障时自动迁移

  • 依赖 Corosync 进行集群通信

  • 需要至少 3 台 PVE 服务器保证 Quorum

  • 支持 Restart、Migrate 等策略

  • 配合 Ceph 存储,可实现无缝高可用

📌 适用于:

  • 企业生产环境

  • 私有云 / 数据中心

  • 关键业务服务(数据库、Web 服务器等)

🚀 如果你希望构建企业级 HA 高可用架构,PVE + Ceph 是一个不错的选择!

五、PVE 中的 Ceph 存储:完整指南

Ceph 是一个开源的分布式存储系统,在 Proxmox VE(PVE) 中可用于 高可用共享存储,支持 块存储(RBD)、文件存储(CephFS)和对象存储(RGW)

📌 适用场景

  • 高可用存储:无单点故障,数据自动复制

  • Proxmox HA(高可用集群):支持 VM 迁移

  • 分布式存储:自动均衡,扩展性强

1. Ceph 的基本概念

组件作用
Monitor(MON)维护集群状态、管理元数据
Manager(MGR)提供额外的监控和管理功能
OSD(Object Storage Daemon)负责存储数据,每个硬盘一个 OSD
Metadata Server(MDS)仅用于 CephFS 文件存储
RADOS(Reliable Autonomic Distributed Object Store)Ceph 的核心存储引擎

📌 Ceph 主要有三种存储类型

  1. RBD(RADOS Block Device)VM 磁盘存储(PVE 推荐)

  2. CephFS(Ceph Filesystem)文件共享存储

  3. RGW(RADOS Gateway)S3 兼容对象存储

2. PVE 中部署 Ceph

📌 2.1 硬件要求

  • 至少 3 个 PVE 节点(建议 5 个)

  • 每个节点至少 1 块 SSD/HDD(用于 OSD)

  • 高性能网络(10Gbps 推荐)

  • 独立 Ceph 网络(Public 和 Cluster Network)

📌 2.2 安装 Ceph

📍 在 PVE Web 界面

  1. 进入“Datacenter” → “Ceph”

  2. 点击 “Install Ceph”,选择 版本

  3. 等待安装完成

📍 或者在 CLI 手动安装

pveceph install

3. 配置 Ceph

📌 3.1 创建 Monitor(MON)

📍 添加 MON 节点

pveceph mon create

 📍 检查 MON 状态

ceph mon dump

📌 3.2 创建 Manager(MGR)

📍 添加 MGR

pveceph mgr create

 📍 检查 MGR 运行状态

ceph mgr dump

📌 3.3 添加 OSD

📍 在 PVE Web 界面

  1. 进入“Ceph” → “OSD”

  2. 选择 磁盘,点击 创建 OSD

📍 或者使用 CLI

pveceph osd create /dev/sdX

 📍 检查 OSD 状态

ceph osd tree

📌 3.4 配置 Ceph 网络

📍 编辑 /etc/pve/ceph.conf

[global]
public_network = 192.168.10.0/24
cluster_network = 192.168.20.0/24

 📍 重启 Ceph

systemctl restart ceph*

4. 在 PVE 中使用 Ceph 存储

📌 4.1 配置 RBD 存储

📍 在 Web UI

  1. 进入“Datacenter” → “Storage”

  2. 添加存储类型 → Ceph RBD

  3. 填写 Pool 名称(如 rbd

📍 或者 CLI 配置

pvesm add rbd ceph-rbd --pool rbd --content images

创建后,VM 磁盘就可以直接存储到 Ceph 了

📌 4.2 配置 CephFS 共享存储

📍 创建 CephFS

ceph fs new cephfs cephfs_metadata cephfs_data

 📍 在 PVE 添加存储

pvesm add cephfs cephfs --monhost 192.168.10.1

 ✅ CephFS 可用于 VM 备份 / 共享数据

5. 监控和优化

📍 查看 Ceph 状态

ceph -s

📍 查看存储使用情况

ceph df

 📍 优化 PG(Placement Groups)

ceph osd pool set rbd pg_num 128
ceph osd pool set rbd pgp_num 128

6. 总结

Ceph 适用于 高可用存储,支持 VM 迁移
Ceph RBD(块存储) 是 PVE 推荐的存储方式
CephFS 适用于文件共享,如 VM 备份
需要至少 3 台 PVE 服务器,建议 5 台以上
建议使用 10Gbps 网络,提升性能

🚀 如果你想构建高可用 PVE 集群,Ceph 是最佳选择!

版权声明:

本网仅为发布的内容提供存储空间,不对发表、转载的内容提供任何形式的保证。凡本网注明“来源:XXX网络”的作品,均转载自其它媒体,著作权归作者所有,商业转载请联系作者获得授权,非商业转载请注明出处。

我们尊重并感谢每一位作者,均已注明文章来源和作者。如因作品内容、版权或其它问题,请及时与我们联系,联系邮箱:809451989@qq.com,投稿邮箱:809451989@qq.com