Ponad 100% obiektów ulega degradacji, jak to możliwe?


1

Sytuacja

Uruchamianie naprawdę małego klastra ceph:

  • z trzema węzłami (każdy zawierający mon, osd i mds)
  • admin VM (zawierająca także usługę mgr)
  • pula replikująca się trzykrotnie

Aby się pobawić, usunąłem program ane osd i ponownie dodałem go jako nowy za pomocą

ceph-deploy --overwrite-conf osd --zap-disk <host>:<disk>

Teraz po udanym dodaniu klaster jest degradowany i odzyskuje się zgodnie z oczekiwaniami. Ale jest więcej obiektów zdegradowanych niż się spodziewałem (informacje zaczerpnięte z interfejsu sieciowego mgr):

Health check update: Degraded data redundancy: 15970/11538 objects degraded (138.412%), 52 pgs degraded (PG_DEGRADED)

Pytanie

Jak to możliwe, że więcej obiektów ulega degradacji niż w ogóle istnieje?


Cześć Michi i witaj w Superuser. Nie jestem pewien, dlaczego twoje pytanie zostało odrzucone. Być może możesz dodać więcej szczegółów na temat konfiguracji? Może zawierać także polecenia wydane w celu wygenerowania udostępnionego raportu z kontroli.
Saaru Lindestøkke,

Dziękuję za ciepłe przyjęcie. Obecna wersja „luminous” ceph rejestruje te komunikaty w dzienniku monitora. Można to sprawdzić za pomocą, ceph log lastaby uzyskać kilka wierszy szczegółowego stanu. To wyjście jest również częścią pulpitu nawigacyjnego ceph-mgr-widocznego przez sieć.
michi.0x5d,
Korzystając z naszej strony potwierdzasz, że przeczytałeś(-aś) i rozumiesz nasze zasady używania plików cookie i zasady ochrony prywatności.
Licensed under cc by-sa 3.0 with attribution required.