k8s 및 인프라/rook-ceph 4

디스크 교체시 osd 생성

0.사전점검 Confirm you will have enough space on your cluster after removing your OSDs to properly handle the deletion Confirm the remaining OSDs and their placement groups (PGs) are healthy in order to handle the rebalancing of the data Do not remove too many OSDs at once Wait for rebalancing between removing multiple OSDs 1.디스크 교체전 우리는 ceph cluster를 host-based cluster방식으로 구성 ceph cluster CR에서 useA..

폐쇄망 rook-ceph 완전히 삭제(clean up)

참고: 공식문서 https://rook.io/docs/rook/latest-release/Getting-Started/ceph-teardown/ Cleanup - Rook Ceph DocumentationCleanup Cleaning up a Cluster To tear down the cluster, the following resources need to be cleaned up: The resources created under Rook's namespace (default rook-ceph) such as the Rook operator created by operator.yaml and the cluster CR cluster.yaml. /varrook.io #pv, pvc삭제 #storagec..

폐쇄망 rook-ceph 설치

1.ceph를 사용할 노드에 라벨링 #노드라벨확인 k get nodes --show-labels #필요한 노드에 ceph용 라벨적용 k label nodes storage=ceph 1. rook operator 설치 k create -f crds.yaml k create -f common.yaml k create -f operator.yaml #아래 파라미터 설정확인 CSI_PROVISIONER_NODE_AFFINITY: "storage=ceph" #라벨이 된 노드에만 ceph osd 구동 CSI_PLUGIN_NODE_AFFINITY: "storage=ceph" #plugin node affinity설정 ROOK_ENABLE_DISCOVERY_DAEMON: "true" #자동감지daemon실행 ROOK_..

rook-ceph 이슈처리 -osd미생성이슈1

이슈상황1: 신규노드 3대 추가 및 rook-ceph 클러스터에서 detection및 osd 생성필요상황 그러나 3대노드 모두 osd생성안됨 신규노드 중 1개 노드의 rook-discover daemon이 리스타트 및 termination상태에서 stuck 조치: 해당 rook-discover pod강제삭제 (--force --grace-period=0) 결과: 해당 노드 discover daemon 재시작 이슈상황2: discover가 정상적으로 구동되었다면, 이후로 osd prepare job이 생성되어야하나 신규노드에서 생성이 안됨 확인사항: 신규노드 ceph 라벨링 추가확인완료 rook-ceph operator의 parameter usealldevice true 설정완료 조치: https://gi..