목록PROXMOX (13)
카이도스의 Tech Blog

안녕하세요.사내 Private Cloud 환경 구축 완료하여 구성도 공유드립니다.많은 우여곡절이 있었지만 기어코 해냈네요 ㅎㅎ.각설하고 설명은 아래와 같습니다.PROXMOX ClusterRack별로 cluster 구성 - 호스트 설정은[서비스명-rack 순서- 서버 순서]스토리지 타입은 2개로 구성(LVM-Thin, ZFS)디스크는 HDD, SSD, NVME 모두 운영Backup어떠한 경우에도 무중단 및 안정성을 제공해야하기에 백업은 2차로 구성1차는 PBS 활용하여 vm 레벨 백업(백업시점의 vm 복구 가능)2차는 NFS 마운트 후 중요 데이터 백업MornitoringZabbix + Slack 통해 모니터링+알람 구성(PROXMOX 전용 템플릿 연동+커스텀 매트릭 or 알람수치 적용)Grafana + ..

현재 회사에 입사 후 많은 일들이 있었지만 그 중에서 PROXMOX란 가상화 오픈소스를 접하고 운영하며 느꼈던 노하우 및 회고를 하고자 한다.전 회사는 호스팅 회사였고 vm도 제공을 했었기 떄문에 가상화 솔루션을 많이 다뤘었다. 기존 솔루션들의 단점은 관리자 입장에서 사용성에 불편함이 많았다. UI, 사용성등이 많이 불편. 스펙의 한계도 명확하지만 PROXMOX란 솔루션을 접하고 직접 구축부터 운영을 계속해오면서 많이 놀랐다.무료인데 이렇게 많은 기능과 편의성을 제공해준다는게 너무나도 감사할 정도였다.다시 호스팅 회사나, 일반 회사에 가더라도 많은 서버 수요가 필요하다면 PROXMOX를 사용할 생각이 들기 때문이다.아, px 쓰면서 최강 장점 중 하나는 서비스 단위로 세분화해서 서버 운영가능. 서버가 지..

해당 vm→Disk Action→Resize→용량 기입 후 확장 클릭→ 확인 서버 접속하여 확인 및 진행 # 확인 lsblk NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINTS loop0 7:0 0 63.4M 1 loop /snap/core20/1974 loop1 7:1 0 63.5M 1 loop /snap/core20/2015 loop2 7:2 0 67.8M 1 loop /snap/lxd/22753 loop3 7:3 0 91.8M 1 loop /snap/lxd/24061 loop4 7:4 0 53.3M 1 loop /snap/snapd/19457 loop5 7:5 0 40.8M 1 loop /snap/snapd/20092 sda 8:0 0 80G 0 disk ├─sda1 8:1 0..
# 설치 sudo hostnamectl set-hostname influxdb wget -q https://repos.influxdata.com/influxdata-archive_compat.key echo '393e8779c89ac8d958f81f942f9ad7fb82a25e133faddaf92e15b16e6ac9ce4c influxdata-archive_compat.key' | sha256sum -c && cat influxdata-archive_compat.key | gpg --dearmor | sudo tee /etc/apt/trusted.gpg.d/influxdata-archive_compat.gpg > /dev/null echo 'deb [signed-by=/etc/apt/trusted.gpg..
# dump 복사 scp /var/lib/vz/dump/vzdump-qemu-9001-2023_09_05-11_35_16.vma.zst root@10.10.x.134:/root/vm scp /var/lib/vz/dump/vzdump-qemu-9002-2023_09_05-11_43_36.vma.zst root@10.10.x.134:/root/vm scp /var/lib/vz/dump/vzdump-qemu-8000-2023_09_05-12_03_40.vma.zst root@10.10.x.134:/root/vm # restore qmrestore vzdump-qemu-9001-2023_09_05-11_35_16.vma.zst 9000 -storage data qmrestore vzdump-qemu-9002-2..

클러스터 생성 → 클러스터 이름 만들고 생성 클릭 → 출력 확인(proxmox1에서) → 가입정보 → 정보 복사 → 완료 후 확인
# root lvremove /dev/pve/data lvresize -l +100%FREE /dev/pve/root resize2fs -p /dev/pve/root # swap 설정 sysctl vm.swappiness=1 cat /proc/sys/vm/swappiness 1

# 디스크 확인 lsblk NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINTS sda 8:0 0 223.5G 0 disk ├─sda1 8:1 0 1007K 0 part ├─sda2 8:2 0 1G 0 part /boot/efi └─sda3 8:3 0 222.5G 0 part ├─pve-swap 253:0 0 8G 0 lvm [SWAP] ├─pve-root 253:1 0 65.6G 0 lvm / ├─pve-data_tmeta 253:2 0 1.3G 0 lvm │ └─pve-data 253:4 0 130.2G 0 lvm └─pve-data_tdata 253:3 0 130.2G 0 lvm └─pve-data 253:4 0 130.2G 0 lvm nvme0n1 259:0 0 7T 0 dis..

# 경고문구 제거 curl --proto '=https' --tlsv1.2 -sSf https://raw.githubusercontent.com/rickycodes/pve-no-subscription/main/no-subscription-warning.sh | sh systemctl restart pveproxy.service sed -i.backup -z "s/res === null || res === undefined || \!res || res\n\t\t\t.data.status.toLowerCase() \!== 'active'/false/g" /usr/share/javascript/proxmox-widget-toolkit/proxmoxlib.js && systemctl restart pveprox..
# 네트워크 설정 nano /etc/network/interfaces auto lo iface lo inet loopback iface ens21f0 inet manual iface ens5f0 inet manual auto bond0 iface bond0 inet manual bond-slaves ens21f0 ens5f0 bond-miimon 100 bond-mode 802.3ad bond-xmit-hash-policy layer3+4 auto vmbr0 iface vmbr0 inet static address 10.10.x.134/24 gateway 10.10.x.x dns-nameservers 10.10.x.x bridge-ports bond0 bridge-stp off bridge-fd 0 # ..
-proxmox shell 에서 진행 # 이미지 다운로드 wget https://cloud-images.ubuntu.com/focal/current/focal-server-cloudimg-amd64.img # VM 생성 qm create 9000 --memory 8192 --core 2 --name ubuntu-20.04-cloud --net0 virtio,bridge=vmbr0 --agent enabled=1 --onboot 1 # Import qm importdisk 9000 focal-server-cloudimg-amd64.img local-lvm qm importdisk 9000 focal-server-cloudimg-amd64.img newstorage # Attach qm set 9000 --..