Data Domain: Data Domain Restorer'larda (DDR'ler) fazla alan kullanımı veya kullanılabilir kapasite eksikliği sorunlarını giderme
Сводка: Bu makalede, Data Domain Restorer'larda (DDR'ler) fazla alan kullanımı veya kullanılabilir kapasite eksikliği ile ilgili sorunlarda yardımcı olacak, adım adım açıklanan bir prosedür yer almaktadır ...
Данная статья применяется к
Данная статья не применяется к
Эта статья не привязана к какому-либо конкретному продукту.
В этой статье указаны не все версии продуктов.
Симптомы
Tüm Data Domain Restorer'lar (DDR'ler), "aktif katman" olarak bilinen bir depolama havuzu/alanı içerir:
- Bu, yeni gelen dosyaların/verilerin bulunduğu disk alanıdır ve çoğu DDR dosyası, bir istemci yedekleme uygulaması tarafından silinene veya süresi dolana kadar burada kalır
- Uzatılmış Saklama (ER) veya Uzun Süreli Saklama (LTR) ile yapılandırılmış DDR'lerde, eski dosyaları aktif katmandan arşiv ya da bulut katmanlarına taşımak için veri taşıma işlemi düzenli aralıklarla çalıştırılabilir
- Aktif katmanda silinmiş/taşınmış dosyalar tarafından kullanılan alanı geri kazanmanın tek yolu, çöp toplama/temizleme işlemlerinin (GC) çalıştırılmasıdır
Aktif katmanın mevcut kullanımı "filesys show space" veya "df" komutları aracılığıyla görüntülenebilir:
# df
Active Tier:
Resource Size GiB Used GiB Avail GiB Use% Cleanable GiB*
---------------- -------- -------- --------- ---- --------------
/data: pre-comp - 33098.9 - - -
/data: post-comp 65460.3 518.7 64941.6 1% 0.0
/ddvar 29.5 19.7 8.3 70% -
/ddvar/core 31.5 0.2 29.7 1% -
---------------- -------- -------- --------- ---- --------------
Active Tier:
Resource Size GiB Used GiB Avail GiB Use% Cleanable GiB*
---------------- -------- -------- --------- ---- --------------
/data: pre-comp - 33098.9 - - -
/data: post-comp 65460.3 518.7 64941.6 1% 0.0
/ddvar 29.5 19.7 8.3 70% -
/ddvar/core 31.5 0.2 29.7 1% -
---------------- -------- -------- --------- ---- --------------
Yapılandırılan arşiv/bulut katmanlarının ayrıntılarının aktif katmanın altında gösterileceğini unutmayın.
Aktif katmanın kullanımı dikkatlice yönetilmelidir; aksi takdirde aşağıdakiler gerçekleşebilir:
- Aktif katmanın kullanılabilir alanı azalmaya başlayarak aşağıdaki gibi uyarıların/mesajların görüntülenmesine neden olabilir:
EVT-SPACE-00004: Space usage in Data Collection has exceeded 95% threshold.
- Aktif katman %100 doluluğa ulaşırsa DDR'ye hiçbir yeni veri yazılamaz ve bu da yedekleme/çoğaltma işlemlerinin başarısız olmasına neden olabilir. Bu durumda, aşağıdaki gibi uyarılar/mesajlar görüntülenebilir:
CRITICAL: MSG-CM-00002: /../vpart:/vol1/col1/cp1/cset: Container set [container set ID] out of space
- Bazı durumlarda, dolu hale gelen aktif katman Data Domain Dosya Sistemi'nin (DDFS) salt okunur olmasına neden olabilir ve bu durumda mevcut dosyalar silinemez
Bu Knowledge Base makalesinin amacı şunlardır:
- Aktif katmanın neden dolabileceğini açıklamak
- Aktif katmanın fazla kullanılmasının nedenini belirlemek için gerçekleştirilebilecek bir dizi basit denetimi ve ilgili düzeltme adımlarını açıklamak
Unutmayın:
- Bu makale eksiksiz değildir (yani, bir DDR'nin aktif katmanının bu belgede ele alınmayan bir nedenle fazla kullanıldığı/dolduğu az sayıda durum olabilir) ancak en sık görülen nedenleri/sorunları kapsaması amaçlanmıştır
- Arşiv veya bulut katmanlarının fazla kullanımı, bu makale kapsamında ele alınmamıştır
Причина
- Yedekleme dosyaları/kaydetme kümeleri, yanlış saklama ilkesi veya yedekleme uygulama yapılandırması nedeniyle istemci yedekleme uygulamaları tarafından doğru şekilde silinmemiştir ya da bunların süreleri dolmamıştır
- Çoğaltma gecikmesi, büyük miktarda eski verinin replikalara çoğaltma işlemini beklediğinden aktif katmanda tutulmasına neden oluyordur
- Aktif katmana yazılan verilerin sıkıştırma oranı, beklenen genel orandan düşüktür
- Sistem doğru şekilde boyutlandırılmamıştır; yani sistemde depolamaya çalışılan veri miktarı için çok küçüktür
- Yedekler çok sayıda küçük dosyadan oluşuyordur; bu dosyalar başlangıçta yazıldığında beklenenden çok daha fazla alan tüketir ancak bu alan, temizleme/çöp toplama sırasında geri kazanılacaktır
- ER/LTR ile yapılandırılan sistemlerde veri taşıma işlemi, düzenli aralıklarla çalıştırılmadığından arşiv/bulut katmanlarına taşınması gereken dosyalar aktif katmanda kalıyordur
- Temizleme/çöp toplama işlemi düzenli aralıklarla çalıştırılmıyordur
- DDR'deki fazla veya eski mtree anlık görüntüleri, temizleme işleminin silinen dosyalardan/verilerden alan kazanmasını önlüyordur
Разрешение
1. Adım: Aktif katmanı temizleme işleminin çalıştırılıp çalıştırılmayacağına karar verin
Data Domain İşletim Sistemi (DDOS), aktif katman için "Cleanable GiB" adlı bir sayaç çalıştırır. Bu, temizleme/çöp toplama işlemini çalıştırarak aktif katmanda ne kadar fiziksel alanın (post-comp) geri kazanılabileceğini tahmin eder. Bu sayaç, "filesys show space"/"df" komutlarıyla gösterilir:
Aşağıdakilerden biri söz konusuysa:
Temizleme işleminin beklendiği gibi başlatıldığını onaylamak için "filesys status" komutu kullanılabilir; örneğin:
Unutmayın:
Gerekirse aktif katman temizlemesi planlayın: örneğin; her salı günü saat 06.00'da çalışacak şekilde:
# filesys clean set schedule Tue 0600
Filesystem cleaning is scheduled to run "Tue" at "0600".
Uzatılmış Saklama (ER) ile yapılandırılan sistemlerde temizleme işlemi, veri taşıması tamamlandıktan sonra çalışacak şekilde yapılandırılır ve özel olarak ayrı bir planlaması bulunmayabilir. Bu senaryo belgenin ilerleyen bölümlerinde ele alınmaktadır
Temizleme işlemi tamamlandıktan sonra kullanım sorunlarının çözülüp çözülmediğini belirlemek için "filesys show space"/"df" komutlarını kullanın. Kullanım oranı hâlâ yüksekse bu makaledeki diğer adımları uygulayın.
2. Adım: Kaynak çoğaltma bağlamlarında büyük miktarda çoğaltma gecikmesi olup olmadığını kontrol edin
Yerel Data Domain çoğaltma işlemi, "çoğaltma bağlamları" kavramı etrafında tasarlanmıştır. Örneğin, sistemler arasında veri çoğaltılmasına ihtiyaç duyulduğunda:
Çoğaltma bağlamlarının gecikip gecikmediğini belirlemek için aşağıdaki adımlar gerçekleştirilmelidir:
Geçerli sistemin kaynak olduğu ve büyük ölçüde gecikme gösteren bağlamlar veya artık gerekli olmayan bağlamlar kaldırılmalıdır. Bu, kaynak ve hedef sistemde aşağıdaki komut çalıştırılarak gerçekleştirilebilir:
Örneğin, yukarıda gösterilen "interesting" (ilgili) bilgisi bulunan bağlamları kaldırmak için kaynak ve hedefte aşağıdaki komutlar çalıştırılır:
Unutmayın:
DDFS'nin içerikleri mantıksal olarak mtree'lere bölünür. Ayrı yedekleme uygulamalarının/istemcilerin ayrı mtree'lere yazıması sık görülen bir durumdur. Bir yedekleme uygulaması kullanımdan kaldırılırsa artık DDR'ye veri yazamaz veya DDR'den veri silemez. Bu da eski/gereksiz mtree'lerin sistemde kalmasına neden olabilir. Bu mtree'lerdeki veriler, sonsuza kadar var olmaya devam ederek DDR'deki disk alanını kullanır. Sonuç olarak, bu tür gereksiz mtree'lerin silinmesi gerekir. Örneğin:
Örneğin:
# mtree delete /data/col1/Budu_test
Data Domain anlık görüntüsü, ilgili mtree'nin belirli bir noktadaki anlık görüntüsünü temsil eder. Sonuç olarak:
Anlık görüntüsü olmayan bir mtree çalıştırıldığında aşağıdaki mesaj görüntülenir:
Anlık görüntüleri olan bir mtree çalıştırıldığında aşağıdaki mesaj görüntülenir:
Bu anlık görüntülerin süresi dolmuş olmalıdır. Bu nedenle temizleme işlemiyle kaldırılabilirler ve diskte kullandıkları alan boşaltılabilir:
# snapshot expire [snapshot name] mtree [mtree name]
Örneğin:
Unutmayın:
DDR'den gelen otomatik destekler, DDR'deki dosyaların yaşa göre dökümünü gösteren histogramlar içerir:
Bu, sistemde istemci yedekleme uygulaması tarafından beklendiği gibi silinmemiş veya süresi dolmamış dosyalar olup olmadığını belirlemek için faydalı olabilir. Örneğin yukarıdaki sistem, herhangi bir dosya için maksimum saklama süresinin 6 ay olduğu bir yedekleme uygulaması tarafından yazıldıysa DDR'de 6 aydan daha eski yaklaşık 80.000 dosya olduğundan yedek uygulamasının dosyaları beklendiği şekilde süre silmediği ya da bunların sürelerini doldurmadığı hemen anlaşılmaktadır.
Unutmayın:
Gerekirse Data Domain desteği aşağıdaki amaçlarla ilave rapor sunabilir:
6. Adım: Çok sayıda küçük dosya içeren yedeklemeleri denetleyin
DDFS küçük dosyaları, (aslında boyutu yaklaşık 10 MB'den küçük olan dosyalardır) tasarımları gereği DDR'ye ilk yazıldıklarında çok fazla alan tüketebilir. Bunun nedeni, küçük dosyaların disk üzerinde birden çok 4,5 MB boyutunda bloklar halinde ayrı ayrı yer kaplamasına neden olan "SISL" (Stream Informed Segment Layout) mimarisidir. Örneğin 4 KB boyutunda bir dosya, ilk yazıldığında 9 MB'ye kadar fiziksel disk alanı tüketebilir.
Bu yüksek alan daha sonra (küçük dosyalardaki veriler daha az sayıda 4,5 MB boyutunda bloklara toplandığı için) temizleme/çöp toplama işlemi çalıştırıldığında geri kazanılır ancak bu tür yedeklemelerin çalıştırılması, daha küçük DDR modellerinin fazla kullanılmasına veya dolmasına neden olabilir.
Otomatik destekler, dosyaların boyutlarına göre düzenlenmiş histogramlarını içerir; örneğin:
Çok fazla sayıda küçük dosya yazan yedeklemeler olduğuna dair kanıt varsa sistem, her temizleme/çöp toplama işlemi başlangıcının arasında kullanımın büyük ölçüde artmasından etkileniyor olabilir. Bu senaryoda, yedekleme yönteminin küçük dosyalar DDR'ye yazılmadan önce hepsinin tek bir büyük arşive (ör. tar dosyası) eklendiği bir yöntemle değiştirilmesi tercih edilir. Böyle bir arşivin sıkıştırılmaması veya şifrelenmemesi gerektiğini unutmayın (aksi takdirde, ilgili verilerin sıkıştırma oranı/tekilleştirme oranı zarar görür).
7. Adım: Tekilleştirme oranının beklenenden düşük olmadığından emin olun
Bir DDR'nin temel amacı, aygıt tarafından alınan verileri tekilleştirmek ve sıkıştırmaktır. Tekilleştirme/sıkıştırma oranı, büyük oranda sistemin kullanım durumuna ve sahip olduğu verilerin türüne bağlıdır ancak birçok durumda, kavram testi veya benzerinin kanıtı üzerinden elde edilen sonuçlara göre "beklenen" genel bir sıkıştırma oranı vardır. Sistemin geçerli genel sıkıştırma oranını belirlemek (ve böylece beklentileri karşıladığından emin olmak) için "filesys show compression" komutu kullanılabilir. Örneğin:
Yukarıdaki örnekte, sistem aktif katman için 65,3 kat genel sıkıştırma oranı sağlıyor (bu, son derece iyi bir orandır). Ancak bu değer, genel sıkıştırma oranının beklentileri karşılamadığını gösterirse daha fazla inceleme gerekli olabilir. Beklenenden düşük sıkıştırma oranını araştırmanın, birçok temel nedenden kaynaklanabilecek karmaşık bir konu olduğunu unutmayın. Detaylı araştırma hakkında daha fazla bilgi için lütfen şu makaleye bakın: https://support.emc.com/kb/487055
8. Adım: Sistemin toplama çoğaltma işleminin kaynağı olup olmadığını kontrol edin
Toplama çoğaltma işlemini kullanırken kaynak sistem, hedeften fiziksel olarak büyükse kaynak sistemin boyutu, hedefin boyutuyla eşleşecek şekilde yapay olarak sınırlandırılır (yani, kaynaktaki diskte kullanılamaz olarak işaretlenen bir alan olur). Bunun nedeni, toplama çoğaltma işlemini kullanırken hedefin, kaynağın blok düzeyinde bir kopyası olması gerekmesidir. Diğer yandan kaynak, hedeften fiziksel olarak daha büyükse kaynağa fazla veri yazılması ve (zaten dolu olduğundan) bunların hedefe çoğaltılamaması ihtimali vardır. Bu senaryo, kaynağın boyutu hedef ile eşleşecek şekilde sınırlandırılarak önlenir.
Bunların biri gerçekleştirildikten sonra, ilave alan kaynak sistemin aktif katmanında derhal kullanılabilir hale gelir (yani, bu alanı kullanmadan önce aktif katman temizleme/çöp toplama işlemini çalıştırmaya gerek yoktur)
9. Adım: Veri taşıma işleminin düzenli olarak yapıldığından emin olun
DDR, Uzatılmış Saklama (ER) veya Uzun Süreli Saklama (LTR) ile yapılandırıldıysa ikinci bir depolama katmanına (ER için arşiv katmanı ya da LTR için bulut katmanı) sahip olacaktır. Bu senaryoda büyük olasılıkla veri taşıma ilkeleri, mtree'ler için uzun süreli saklama gerektiren daha eski/değiştirilmeyen veriler, aktif katmandan alternatif bir depolama katmanına taşınacak şekilde yapılandırılmıştır. Böylece, aktif katmanda bu dosyalar tarafından kullanılan alan, temizleme/çöp toplama işlemiyle fiziksel olarak geri kazanılabilir. Veri taşıma ilkeleri yanlış yapılandırılırsa veya veri taşıma işlemi düzenli olarak çalıştırılmıyorsa eski veriler aktif katmanda beklenenden daha uzun süre kalır ve diskte fiziksel alan kullanmaya devam eder.
ER ve LTR'nin birbirinden ayrışık olduğunu unutmayın. Yani sistem sadece bir aktif katman (ER/LTR yapılandırması olmadan); bir aktif katman ve arşiv katmanı (ER yapılandırılmış) ya da bir aktif katman ve bulut katmanı (LTR yapılandırılmış) içerebilir
Veri taşıma ilkeleri yanlışsa/eksikse bunların düzeltilmesi gerekir. Bu düzeltme işlemini gerçekleştirirken yardım almak için Data Domain Yöneticiler Rehberi'ne bakın
Data Domain'in çoğunlukla veri taşıma işleminin otomatik bir planlamayla yapılmasını önerdiğini unutmayın. Ancak bazı müşteriler, bu işlemi anlık olarak (yani gerekli olduğunda) yapmayı tercih eder. Bu senaryoda veri taşıma işlemi, aşağıdaki komutu çalıştırarak düzenli aralıklarla başlatılmalıdır:
Veri taşıma planlamasını değiştirme konusunda daha fazla bilgi için Data Domain Yöneticiler Rehberine başvurun
Veri taşıma işlemi bir süredir yapılmamışsa bu işlemi aşağıdaki komutlarla manuel olarak başlatmayı deneyin ve izleyin:
Veri taşıma işlemi herhangi bir nedenle başlatılamıyorsa daha fazla yardım için lütfen sözleşmeli destek sağlayıcınıza başvurun.
LTR sistemlerinde aktif katman temizleme işlemine özel bir planlama yapılandırılmalıdır
10. Adım: Etkin katmana ilave depolama alanı ekleme
Önceki tüm adımlar gerçekleştirilip aktif katman temizleme işlemi tamamlandıysa ancak aktif katmanda hâlâ yeterli alan yoksa sistem, aldığı iş yüküne göre doğru şekilde boyutlandırılmamış olabilir. Bu durumda aşağıdakilerden biri gerçekleştirilmelidir:
Depolama ilavesi konusunu görüşmek için lütfen satış hesap ekibinizle iletişime geçin.
Data Domain İşletim Sistemi (DDOS), aktif katman için "Cleanable GiB" adlı bir sayaç çalıştırır. Bu, temizleme/çöp toplama işlemini çalıştırarak aktif katmanda ne kadar fiziksel alanın (post-comp) geri kazanılabileceğini tahmin eder. Bu sayaç, "filesys show space"/"df" komutlarıyla gösterilir:
Active Tier:
Resource Size GiB Used GiB Avail GiB Use% Cleanable GiB*
---------------- -------- --------- --------- ---- --------------
/data: pre-comp - 7259347.5 - - -
/data: post-comp 304690.8 251252.4 53438.5 82% 51616.1 <=== NOTE
/ddvar 29.5 12.5 15.6 44% -
---------------- -------- --------- --------- ---- --------------
Resource Size GiB Used GiB Avail GiB Use% Cleanable GiB*
---------------- -------- --------- --------- ---- --------------
/data: pre-comp - 7259347.5 - - -
/data: post-comp 304690.8 251252.4 53438.5 82% 51616.1 <=== NOTE
/ddvar 29.5 12.5 15.6 44% -
---------------- -------- --------- --------- ---- --------------
Aşağıdakilerden biri söz konusuysa:
- "Cleanable GiB" değeri büyükse
- DDFS %100 doluysa (ve bu nedenle salt okunursa)
# filesys clean start
Cleaning started. Use 'filesys clean watch' to monitor progress.
Cleaning started. Use 'filesys clean watch' to monitor progress.
Temizleme işleminin beklendiği gibi başlatıldığını onaylamak için "filesys status" komutu kullanılabilir; örneğin:
# filesys status
The filesystem is enabled and running.
Cleaning started at 2017/05/19 18:05:58: phase 1 of 12 (pre-merge)
50.6% complete, 64942 GiB free; time: phase 0:01:05, total 0:01:05
The filesystem is enabled and running.
Cleaning started at 2017/05/19 18:05:58: phase 1 of 12 (pre-merge)
50.6% complete, 64942 GiB free; time: phase 0:01:05, total 0:01:05
Unutmayın:
- Temizleme işlemi başlatılamıyorsa lütfen daha fazla yardım için sözleşmeli destek sağlayıcınıza başvurun çünkü bu, sistemin temizleme işlemini devre dışı bırakmasına neden olan "eksik segment hatası" ile karşılaşmış olabileceğini gösterir
- Temizleme işlemi zaten çalıştırılıyorsa bunu çalıştırmayı denediğinizde aşağıdaki mesaj görüntülenir:
**** Cleaning already in progress. Use 'filesys clean watch' to monitor progress.
- Temizleme işlemi kopyalama aşamasına (varsayılan olarak DDOS 5.4.x ve önceki sürümlerde 9. aşama, DDOS 5.5.x ve sonraki sürümlerde 11. aşamadır) gelmeden aktif katmanda hiçbir alan serbest bırakılmaz/geri kazanılmaz. Temizleme işlemi tarafından kullanılan aşamalara ilişkin daha fazla bilgi için bkz. https://support.emc.com/kb/446734
- Temizleme işlemi, "Cleanable GiB'" tarafından belirtilen değer aslında bir tahmin olduğu için bu miktardaki alanın geri kazanılmasını sağlayamayabilir. Bu konu hakkında daha fazla bilgi için bkz. https://support.emc.com/kb/485637
- Temizleme işlemi tek bir çalıştırmada tüm olası alanın geri kazanılmasını sağlayamayabilir. Bunun nedeni, büyük veri kümeleri içeren DDR'lerde temizleme işleminin, dosya sisteminin en gereksiz verileri içeren bölümünde (temizleme işleminin en kısa sürede en çok alan kazanabileceği şekilde) çalışmasıdır. Bazı senaryolarda temizleme işleminin, tüm olası alanın geri kazanılmasını sağlamak için birden fazla kez çalıştırılması gerekebilir
- "Cleanable GiB" değeri çok büyükse bu, temizleme işleminin düzenli aralıklarla çalışmadığını gösteriyor olabilir. Bir temizleme işleminin planlandığından emin olun:
# filesys clean show schedule
Gerekirse aktif katman temizlemesi planlayın: örneğin; her salı günü saat 06.00'da çalışacak şekilde:
# filesys clean set schedule Tue 0600
Filesystem cleaning is scheduled to run "Tue" at "0600".
Uzatılmış Saklama (ER) ile yapılandırılan sistemlerde temizleme işlemi, veri taşıması tamamlandıktan sonra çalışacak şekilde yapılandırılır ve özel olarak ayrı bir planlaması bulunmayabilir. Bu senaryo belgenin ilerleyen bölümlerinde ele alınmaktadır
Temizleme işlemi tamamlandıktan sonra kullanım sorunlarının çözülüp çözülmediğini belirlemek için "filesys show space"/"df" komutlarını kullanın. Kullanım oranı hâlâ yüksekse bu makaledeki diğer adımları uygulayın.
2. Adım: Kaynak çoğaltma bağlamlarında büyük miktarda çoğaltma gecikmesi olup olmadığını kontrol edin
Yerel Data Domain çoğaltma işlemi, "çoğaltma bağlamları" kavramı etrafında tasarlanmıştır. Örneğin, sistemler arasında veri çoğaltılmasına ihtiyaç duyulduğunda:
- Kaynak ve hedef DDR'lerde çoğaltma bağlamları oluşturulur
- Bağlamlar başlatılır
- Başlatma işlemi tamamlandıktan sonra sistemdeki verilerin senkronize halde kalması için çoğaltma işlemi düzenli aralıklarla kaynaktan hedefe güncellemeler/deltalar gönderir
- Dizin çoğaltma bağlamları (sistemler arasında /data/col1/backup altında tek bir dizin ağacı çoğaltılırken kullanılır):
Dizin çoğaltma, henüz hedefe çoğaltılmamış bekleyen dosyaları izlemek için kaynak DDR'de bir çoğaltma günlüğü kullanır.
Bir dizin çoğaltma bağlamı gecikiyorsa kaynak DDR'deki çoğaltma günlüğü, çoğaltma işlemini bekleyen çok sayıda dosyayı izler
Bu dosyalar silinse bile çoğaltma günlüğü tarafından referans gösterilmeye devam ederler ve temizleme işlemi, diskteki bu dosyalar tarafından kullanılan alanın geri kazanılmasını sağlayamaz
Bir dizin çoğaltma bağlamı gecikiyorsa kaynak DDR'deki çoğaltma günlüğü, çoğaltma işlemini bekleyen çok sayıda dosyayı izler
Bu dosyalar silinse bile çoğaltma günlüğü tarafından referans gösterilmeye devam ederler ve temizleme işlemi, diskteki bu dosyalar tarafından kullanılan alanın geri kazanılmasını sağlayamaz
- Mtree çoğaltma bağlamları (sistemler arasında /data/col1/backup dışındaki bir mtree çoğaltılırken kullanılır):
Mtree çoğaltma işlemi, sistemler arasındaki farkları ve böylece hangi dosyaların kaynaktan hedefe gönderileceğini belirlemek için kaynak ve hedef sistemlerde oluşturulan anlık görüntüleri kullanır
Bir mtree çoğaltma bağlamı gecikiyorsa ilgili mtree'nin kaynak ve hedef sistemlerde oluşturulmuş çok eski anlık görüntüleri olabilir
Dosyalar kaynak sistemdeki çoğaltılan mtree'den olsa bile mtree çoğaltma anlık görüntüleri sistemde oluşturulduğunda bu dosyalar mevcutsa temizleme işlemi, diskteki bu dosyaların kullandığı alanının geri kazanılmasını sağlayamaz
Bir mtree çoğaltma bağlamı gecikiyorsa ilgili mtree'nin kaynak ve hedef sistemlerde oluşturulmuş çok eski anlık görüntüleri olabilir
Dosyalar kaynak sistemdeki çoğaltılan mtree'den olsa bile mtree çoğaltma anlık görüntüleri sistemde oluşturulduğunda bu dosyalar mevcutsa temizleme işlemi, diskteki bu dosyaların kullandığı alanının geri kazanılmasını sağlayamaz
- Toplama çoğaltma bağlamları (bir DDR'nin tüm içeriği başka bir sisteme çoğaltılırken kullanılır):
Koleksiyon çoğaltma, bir kaynak sistemdeki tüm verilerin hedef sisteme "blok tabanlı" olarak çoğaltılması işlemini gerçekleştirir
Bir koleksiyon çoğaltma işlemi gecikiyorsa kaynak sistemde temizleme işlemi, ideal şekilde çalışmaz. Bu durumda, kaynakta bir uyarı oluşarak hedef sistemle senkronizasyonu kullanmaktan kaçınmak için kısmi temizleme yapıldığını belirtir
Bu nedenle temizleme işlemi, kaynak DDR'de beklenen düzeyde alanın geri kazanılmasını sağlayamaz
Bir koleksiyon çoğaltma işlemi gecikiyorsa kaynak sistemde temizleme işlemi, ideal şekilde çalışmaz. Bu durumda, kaynakta bir uyarı oluşarak hedef sistemle senkronizasyonu kullanmaktan kaçınmak için kısmi temizleme yapıldığını belirtir
Bu nedenle temizleme işlemi, kaynak DDR'de beklenen düzeyde alanın geri kazanılmasını sağlayamaz
Çoğaltma bağlamlarının gecikip gecikmediğini belirlemek için aşağıdaki adımlar gerçekleştirilmelidir:
- Geçerli sistemin ana bilgisayar adını belirleyin:
sysadmin@dd4200# hostname
The Hostname is: dd4200.ddsupport.emea
The Hostname is: dd4200.ddsupport.emea
- Geçerli sistemdeki tarihi/saati belirleyin:
sysadmin@dd4200# date
Fri May 19 19:04:06 IST 2017
Fri May 19 19:04:06 IST 2017
- Sistemde yapılandırılmış olan çoğaltma bağlamlarını "synced as of time" (şu saat itibarıyla senkronize) bilgisiyle birlikte listeleyin. İlgili bağlamların, "destination" (hedef) bilgilerinde geçerli sistemin ana bilgisayar adının BULUNMADIĞINI (geçerli sistemin kaynak olduğu anlamına gelir) ve "synced as of time" (şu saat itibarıyla senkronize) bilgisinin oldukça eski olan bağlamlar olduğunu unutmayın:
sysadmin@dd4200# replication status
CTX Destination Enabled Connection Sync'ed-as-of-time Tenant-Unit
--- ---------------------------------------------------------------------------------- ------- ------------ ------------------ -----------
3 mtree://dd4200.ddsupport.emea/data/col1/DFC no idle Thu Jan 8 08:58 - <=== NOT INTERESTING - CURRENT SYSTEM IS THE DESTINATION
9 mtree://BenDDVE.ddsupport.emea/data/col1/BenMtree no idle Mon Jan 25 14:48 - <=== INTERESTING - LAGGING AND CURRENT SYSTEM IS THE SOURCE
13 dir://DD2500-1.ddsupport.emea/backup/dstfolder no disconnected Thu Mar 30 17:55 - <=== INTERESTING - LAGGING AND CURRENT SYSTEM IS THE SOURCE
17 mtree://DD2500-1.ddsupport.emea/data/col1/oleary yes idle Fri May 19 18:57 - <=== NOT INTERESTING - CONTEXT IS UP TO DATE
18 mtree://dd4200.ddsupport.emea/data/col1/testfast yes idle Fri May 19 19:18 - <=== NOT INTERESTING - CONTEXT IS UP TO DATE
--- ---------------------------------------------------------------------------------- ------- ------------ ------------------ -----------
CTX Destination Enabled Connection Sync'ed-as-of-time Tenant-Unit
--- ---------------------------------------------------------------------------------- ------- ------------ ------------------ -----------
3 mtree://dd4200.ddsupport.emea/data/col1/DFC no idle Thu Jan 8 08:58 - <=== NOT INTERESTING - CURRENT SYSTEM IS THE DESTINATION
9 mtree://BenDDVE.ddsupport.emea/data/col1/BenMtree no idle Mon Jan 25 14:48 - <=== INTERESTING - LAGGING AND CURRENT SYSTEM IS THE SOURCE
13 dir://DD2500-1.ddsupport.emea/backup/dstfolder no disconnected Thu Mar 30 17:55 - <=== INTERESTING - LAGGING AND CURRENT SYSTEM IS THE SOURCE
17 mtree://DD2500-1.ddsupport.emea/data/col1/oleary yes idle Fri May 19 18:57 - <=== NOT INTERESTING - CONTEXT IS UP TO DATE
18 mtree://dd4200.ddsupport.emea/data/col1/testfast yes idle Fri May 19 19:18 - <=== NOT INTERESTING - CONTEXT IS UP TO DATE
--- ---------------------------------------------------------------------------------- ------- ------------ ------------------ -----------
Geçerli sistemin kaynak olduğu ve büyük ölçüde gecikme gösteren bağlamlar veya artık gerekli olmayan bağlamlar kaldırılmalıdır. Bu, kaynak ve hedef sistemde aşağıdaki komut çalıştırılarak gerçekleştirilebilir:
# replication break [destination]
Örneğin, yukarıda gösterilen "interesting" (ilgili) bilgisi bulunan bağlamları kaldırmak için kaynak ve hedefte aşağıdaki komutlar çalıştırılır:
(dd4200.ddsupport.emea): # replication break mtree://BenDDVE.ddsupport.emea/data/col1/BenMtree
(BenDDVE.ddsupport.emea): # replication break mtree://BenDDVE.ddsupport.emea/data/col1/BenMtree
(BenDDVE.ddsupport.emea): # replication break mtree://BenDDVE.ddsupport.emea/data/col1/BenMtree
(dd4200.ddsupport.emea): # replication break dir://DD2500-1.ddsupport.emea/backup/dstfolder
(DD2500-1.ddsupport.emea): # replication break dir://DD2500-1.ddsupport.emea/backup/dstfolder
(DD2500-1.ddsupport.emea): # replication break dir://DD2500-1.ddsupport.emea/backup/dstfolder
Unutmayın:
- Bağlamlar kaldırıldığında aktif katmanda olası alanı geri kazanmak için aktif katman temizleme işleminin çalıştırılması gerekir
- Mtree çoğaltma işlemi kullanılıyorsa bağlamlar kaldırıldığında mtree çoğaltma anlık görüntüleri diskte kalabilir. Temizleme işlemini çalıştırmadan önce gereksiz anlık görüntülerin süresinin dolması için 5. adımın uygulandığından emin olun
- Kaynak/hedef mtree verileri arşiv veya bulut katmanlarına taşıyacak şekilde yapılandırıldıysa ilgili mtree çoğaltma bağlamları dikkatli şekilde kaldırılmalıdır çünkü bu bağlamları, ileride yeniden oluşturmak/başlatmak mümkün olmayabilir. Bunun nedeni, bir mtree çoğaltma bağlamı başlatıldığında kaynak sistemde bir mtree anlık görüntüsünün oluşturulması ve söz konusu anlık görüntünün mtree'deki tüm dosyaların ayrıntılarını (katmana bakılmaksızın) içermesidir. Bu anlık görüntü, daha sonra hedefin aktif katmanına tam olarak çoğaltılır. Sonuç olarak, hedefin aktif katmanının tüm mtree verilerini kaynaktan almak için yeterli boş alanı yoksa başlatma işlemi tamamlanamaz. Bu sorunla ilgili daha fazla bilgi için lütfen sözleşmeli destek sağlayıcınıza başvurun
- Bir toplama çoğaltma bağlamı kaldırıldığında bağlam, öncelikle hedef DDR'de DDFS örneği yok edilmeden (ve bu sistemdeki tüm veriler kaybolmadan) yeniden oluşturulamaz/başlatılamaz. Sonuç olarak, kaynaktan gelen tüm veriler hedefe fiziksel olarak tekrar çoğaltılması gerektiğinden, sonraki başlatma işlemi çok uzun sürebilir/çok fazla ağ bant genişliği kullanabilir
DDFS'nin içerikleri mantıksal olarak mtree'lere bölünür. Ayrı yedekleme uygulamalarının/istemcilerin ayrı mtree'lere yazıması sık görülen bir durumdur. Bir yedekleme uygulaması kullanımdan kaldırılırsa artık DDR'ye veri yazamaz veya DDR'den veri silemez. Bu da eski/gereksiz mtree'lerin sistemde kalmasına neden olabilir. Bu mtree'lerdeki veriler, sonsuza kadar var olmaya devam ederek DDR'deki disk alanını kullanır. Sonuç olarak, bu tür gereksiz mtree'lerin silinmesi gerekir. Örneğin:
- Sistemdeki mtree'lerin listesini edinin:
# mtree list
Name Pre-Comp (GiB) Status
------------------------------------------------------------- -------------- -------
/data/col1/Budu_test 147.0 RW
/data/col1/Default 8649.8 RW
/data/col1/File_DayForward_Noida 42.0 RW/RLCE
/data/col1/labtest 1462.7 RW
/data/col1/oscar_data 0.2 RW
/data/col1/test_oscar_2 494.0 RO/RD
------------------------------------------------------------- -------------- -------
Name Pre-Comp (GiB) Status
------------------------------------------------------------- -------------- -------
/data/col1/Budu_test 147.0 RW
/data/col1/Default 8649.8 RW
/data/col1/File_DayForward_Noida 42.0 RW/RLCE
/data/col1/labtest 1462.7 RW
/data/col1/oscar_data 0.2 RW
/data/col1/test_oscar_2 494.0 RO/RD
------------------------------------------------------------- -------------- -------
- Artık ihtiyaç duyulmayan mtree'ler "mtree delete" komutuyla silinmelidir; örneğin:
# mtree delete [mtree name]
Örneğin:
# mtree delete /data/col1/Budu_test
...
MTree "/data/col1/Budu_test" deleted successfully.
MTree "/data/col1/Budu_test" deleted successfully.
- Silinen mtree tarafından diskte kullanılan alan, aktif katmanın temizleme/çöp toplama işlemini bir sonraki çalıştırmasında geri kazanılır.
- Mtree çoğaltma işleminin hedefleri olan mtree'lerin (yani mtree listesinin çıktısında RO/RD durumuna sahip olanlar) ilgili çoğaltma bağlamı, mtree silinmeden önce kaldırılmalıdır
- DDBoost mantıksal depolama birimleri (LSU'lar) veya sanal bant kitaplığı (VTL) havuzları olarak kullanılan mtree'ler, "mtree delete" komutuyla silinemeyebilir. Bu tür mtree'leri silme konusunda daha fazla ayrıntı için Data Domain Yönetici Rehberine bakın
- Saklama kilidi için yapılandırılan mtree'ler (ör. RLCE veya RLGER durumuna sahip) silinemez. Mtree'deki her bir dosyanın saklama kilidi geri alınmalı ve bunlar ayrı ayrı silinmelidir. Konuyla ilgili daha fazla ayrıntı için Data Domain Yönetici Rehberine bakın
Data Domain anlık görüntüsü, ilgili mtree'nin belirli bir noktadaki anlık görüntüsünü temsil eder. Sonuç olarak:
- Anlık görüntü oluşturulduğunda mtree'de mevcut olan dosyalar, anlık görüntü tarafından referans alınır
- Bu dosyalar kaldırılmış/silinmiş olsa bile anlık görüntü var olmaya devam ederken temizleme işlemi bunların diskte kullandığı alanı geri kazanamaz çünkü anlık görüntüdeki dosyanın kopyasına daha sonra erişilme ihtimali nedeniyle verilerin sistemde kalması gerekir
- 3. adımda gösterilen "mtree list" komutunu kullanarak sistemdeki mtree'lerin listesini edinin
- Her mtree için mevcut olan anlık görüntülerin listesini "snapshot list" komutuyla edinin:
# snapshot list mtree [mtree name]
Anlık görüntüsü olmayan bir mtree çalıştırıldığında aşağıdaki mesaj görüntülenir:
# snapshot list mtree /data/col1/Default
Snapshot Information for MTree: /data/col1/Default
----------------------------------------------
No snapshots found.
Snapshot Information for MTree: /data/col1/Default
----------------------------------------------
No snapshots found.
Anlık görüntüleri olan bir mtree çalıştırıldığında aşağıdaki mesaj görüntülenir:
# snapshot list mtree /data/col1/labtest
Snapshot Information for MTree: /data/col1/labtest
----------------------------------------------
Name Pre-Comp (GiB) Create Date Retain Until Status
------------------------------------ -------------- ----------------- ----------------- -------
testsnap-2016-03-31-12-00 1274.5 Mar 31 2016 12:00 Mar 26 2017 12:00 expired
testsnap-2016-05-31-12-00 1198.8 May 31 2016 12:00 May 26 2017 12:00
testsnap-2016-07-31-12-00 1301.3 Jul 31 2016 12:00 Jul 26 2017 12:00
testsnap-2016-08-31-12-00 1327.5 Aug 31 2016 12:00 Aug 26 2017 12:00
testsnap-2016-10-31-12-00 1424.9 Oct 31 2016 12:00 Oct 26 2017 13:00
testsnap-2016-12-31-12-00 1403.1 Dec 31 2016 12:00 Dec 26 2017 12:00
testsnap-2017-01-31-12-00 1421.0 Jan 31 2017 12:00 Jan 26 2018 12:00
testsnap-2017-03-31-12-00 1468.7 Mar 31 2017 12:00 Mar 26 2018 12:00
REPL-MTREE-AUTO-2017-05-11-15-18-32 1502.2 May 11 2017 15:18 May 11 2018 15:18
----------------------------------- -------------- ----------------- ----------------- -------
Snapshot Information for MTree: /data/col1/labtest
----------------------------------------------
Name Pre-Comp (GiB) Create Date Retain Until Status
------------------------------------ -------------- ----------------- ----------------- -------
testsnap-2016-03-31-12-00 1274.5 Mar 31 2016 12:00 Mar 26 2017 12:00 expired
testsnap-2016-05-31-12-00 1198.8 May 31 2016 12:00 May 26 2017 12:00
testsnap-2016-07-31-12-00 1301.3 Jul 31 2016 12:00 Jul 26 2017 12:00
testsnap-2016-08-31-12-00 1327.5 Aug 31 2016 12:00 Aug 26 2017 12:00
testsnap-2016-10-31-12-00 1424.9 Oct 31 2016 12:00 Oct 26 2017 13:00
testsnap-2016-12-31-12-00 1403.1 Dec 31 2016 12:00 Dec 26 2017 12:00
testsnap-2017-01-31-12-00 1421.0 Jan 31 2017 12:00 Jan 26 2018 12:00
testsnap-2017-03-31-12-00 1468.7 Mar 31 2017 12:00 Mar 26 2018 12:00
REPL-MTREE-AUTO-2017-05-11-15-18-32 1502.2 May 11 2017 15:18 May 11 2018 15:18
----------------------------------- -------------- ----------------- ----------------- -------
- Anlık görüntüler mevcut olduğunda aşağıdaki anlık görüntüleri belirlemek için "'snapshot list mtree [mtree name]" komutunun çıktısını kullanın:
"Expired" (süresi geçmiş) durumunda olmayan (durum sütununa bakın)
Çok eski bir tarihte oluşturulan (örneğin, yukarıdaki listedeki 2016'da oluşturulan anlık görüntüler)
Bu anlık görüntülerin süresi dolmuş olmalıdır. Bu nedenle temizleme işlemiyle kaldırılabilirler ve diskte kullandıkları alan boşaltılabilir:
# snapshot expire [snapshot name] mtree [mtree name]
Örneğin:
# snapshot expire testsnap-2016-05-31-12-00 mtree /data/col1/labtest
Snapshot "testsnap-2016-05-31-12-00" for mtree "/data/col1/labtest" will be retained until May 19 2017 19:31.
Snapshot "testsnap-2016-05-31-12-00" for mtree "/data/col1/labtest" will be retained until May 19 2017 19:31.
- Anlık görüntü listesi komutu tekrar çalıştırılırsa bu anlık görüntüler artık expired (süresi geçmiş) olarak listelenir:
# snapshot list mtree /data/col1/labtest
Snapshot Information for MTree: /data/col1/labtest
----------------------------------------------
Name Pre-Comp (GiB) Create Date Retain Until Status
------------------------------------ -------------- ----------------- ----------------- -------
testsnap-2016-03-31-12-00 1274.5 Mar 31 2016 12:00 Mar 26 2017 12:00 expired
testsnap-2016-05-31-12-00 1198.8 May 31 2016 12:00 May 26 2017 12:00 expired
testsnap-2016-07-31-12-00 1301.3 Jul 31 2016 12:00 Jul 26 2017 12:00
testsnap-2016-08-31-12-00 1327.5 Aug 31 2016 12:00 Aug 26 2017 12:00
testsnap-2016-10-31-12-00 1424.9 Oct 31 2016 12:00 Oct 26 2017 13:00
testsnap-2016-12-31-12-00 1403.1 Dec 31 2016 12:00 Dec 26 2017 12:00
testsnap-2017-01-31-12-00 1421.0 Jan 31 2017 12:00 Jan 26 2018 12:00
testsnap-2017-03-31-12-00 1468.7 Mar 31 2017 12:00 Mar 26 2018 12:00
REPL-MTREE-AUTO-2017-05-11-15-18-32 1502.2 May 11 2017 15:18 May 11 2018 15:18
----------------------------------- -------------- ----------------- ----------------- -------
Snapshot Information for MTree: /data/col1/labtest
----------------------------------------------
Name Pre-Comp (GiB) Create Date Retain Until Status
------------------------------------ -------------- ----------------- ----------------- -------
testsnap-2016-03-31-12-00 1274.5 Mar 31 2016 12:00 Mar 26 2017 12:00 expired
testsnap-2016-05-31-12-00 1198.8 May 31 2016 12:00 May 26 2017 12:00 expired
testsnap-2016-07-31-12-00 1301.3 Jul 31 2016 12:00 Jul 26 2017 12:00
testsnap-2016-08-31-12-00 1327.5 Aug 31 2016 12:00 Aug 26 2017 12:00
testsnap-2016-10-31-12-00 1424.9 Oct 31 2016 12:00 Oct 26 2017 13:00
testsnap-2016-12-31-12-00 1403.1 Dec 31 2016 12:00 Dec 26 2017 12:00
testsnap-2017-01-31-12-00 1421.0 Jan 31 2017 12:00 Jan 26 2018 12:00
testsnap-2017-03-31-12-00 1468.7 Mar 31 2017 12:00 Mar 26 2018 12:00
REPL-MTREE-AUTO-2017-05-11-15-18-32 1502.2 May 11 2017 15:18 May 11 2018 15:18
----------------------------------- -------------- ----------------- ----------------- -------
Unutmayın:
- Tek bir anlık görüntünün veya bir anlık görüntüler kümesinin diskte ne kadar fiziksel veri tuttuğunu belirlemek mümkün değildir. Bir anlık görüntüyle ilişkili "alan" için tek değer, anlık görüntü oluşturulduğunda mtree'nin sıkıştırılmadan önceki (mantıksal) boyutunun göstergesidir (yukarıdaki çıktıda gösterildiği gibi)
- "REPL-MTREE-AUTO-YYYY-MM-DD-HH-MM-SS" olarak adlandırılan anlık görüntüler mtree çoğaltma işlemi tarafından yönetilir ve normal koşullarda, sürelerinin manuel olarak doldurulmaması gerekir (çoğaltma işlemi, söz konusu anlık görüntüler artık gerekli olmadığında bunların süresini otomatik olarak sona erdirir). Bu tür anlık görüntülerin çok eski olması, ilgili çoğaltma bağlamının büyük olasılıkla büyük bir gecikme yaşadığını (2. adımda anlatıldığı gibi) göstermektedir
- "REPL-MTREE-RESYNC-RESERVE-YYYY-MM-DD-HH-MM-SS" adlı anlık görüntüler, mtree çoğaltma bağlamı kaldırıldığı zaman mtree çoğaltma işlemi tarafından oluşturulur. Bunların amacı, kaldırılan bağlamın daha sonra yeniden oluşturulması durumunda (örneğin bağlam yanlışlıkla kaldırılırsa) çoğaltma verilerinin tamamen yeniden senkronize edilmesini önlemek üzere kullanılabilmesidir. Çoğaltma işlemi yeniden oluşturulmazsa bu bağlamların süresi, yukarıda açıklandığı gibi manuel olarak doldurulabilir
- Süresi dolan anlık görüntüler, temizleme/çöp toplama işlemi bir daha çalıştırılana kadar sistemde var olmaya devam eder. Bu noktada fiziksel olarak silinirler ve "snapshot list mtree [mtree name]" çıktısından kaldırılırlar. Daha sonra temizleme işlemi, bu anlık görüntülerin diskte kullandığı alanların geri kazanılmasını sağlayabilir
DDR'den gelen otomatik destekler, DDR'deki dosyaların yaşa göre dökümünü gösteren histogramlar içerir:
File Distribution
-----------------
448,672 files in 5,276 directories
Count Space
----------------------------- --------------------------
Age Files % cumul% GiB % cumul%
--------- ----------- ----- ------- -------- ----- -------
1 day 7,244 1.6 1.6 4537.9 0.1 0.1
1 week 40,388 9.0 10.6 63538.2 0.8 0.8
2 weeks 47,850 10.7 21.3 84409.1 1.0 1.9
1 month 125,800 28.0 49.3 404807.0 5.0 6.9
2 months 132,802 29.6 78.9 437558.8 5.4 12.3
3 months 8,084 1.8 80.7 633906.4 7.8 20.1
6 months 5,441 1.2 81.9 1244863.9 15.3 35.4
1 year 21,439 4.8 86.7 3973612.3 49.0 84.4
> 1 year 59,624 13.3 100.0 1265083.9 15.6 100.0
--------- ----------- ----- ------- -------- ----- -------
-----------------
448,672 files in 5,276 directories
Count Space
----------------------------- --------------------------
Age Files % cumul% GiB % cumul%
--------- ----------- ----- ------- -------- ----- -------
1 day 7,244 1.6 1.6 4537.9 0.1 0.1
1 week 40,388 9.0 10.6 63538.2 0.8 0.8
2 weeks 47,850 10.7 21.3 84409.1 1.0 1.9
1 month 125,800 28.0 49.3 404807.0 5.0 6.9
2 months 132,802 29.6 78.9 437558.8 5.4 12.3
3 months 8,084 1.8 80.7 633906.4 7.8 20.1
6 months 5,441 1.2 81.9 1244863.9 15.3 35.4
1 year 21,439 4.8 86.7 3973612.3 49.0 84.4
> 1 year 59,624 13.3 100.0 1265083.9 15.6 100.0
--------- ----------- ----- ------- -------- ----- -------
Bu, sistemde istemci yedekleme uygulaması tarafından beklendiği gibi silinmemiş veya süresi dolmamış dosyalar olup olmadığını belirlemek için faydalı olabilir. Örneğin yukarıdaki sistem, herhangi bir dosya için maksimum saklama süresinin 6 ay olduğu bir yedekleme uygulaması tarafından yazıldıysa DDR'de 6 aydan daha eski yaklaşık 80.000 dosya olduğundan yedek uygulamasının dosyaları beklendiği şekilde süre silmediği ya da bunların sürelerini doldurmadığı hemen anlaşılmaktadır.
Unutmayın:
- Tüm dosya süre sonu/silme işlemlerini yapmak yedekleme uygulamasının sorumluluğundadır
- DDR otomatik olarak asla dosyaların süresini doldurmaz veya dosyaları silmez. Yedekleme uygulaması açıkça bir dosyanın silinmesi talimatını vermediği sürece dosya sonsuza kadar DDR'de kalarak alan kaplamaya devam eder
Gerekirse Data Domain desteği aşağıdaki amaçlarla ilave rapor sunabilir:
- DDR'deki tüm dosyaların yaşa göre sıralanmış şekilde adını/değişiklik tarihini vermek (böylece eski verilerin adı/konumu belirlenebilir)
- Dosya yaşı histogramlarını, aktif/arşiv/bulut katmanı için ayrı raporlara bölmek (ER/LTR özellikleri etkin olduğunda)
- Bu belgenin notlar bölümünün "Collecting sfs_dump" (sfs_dump toplama) paragrafında anlatıldığı şekilde kanıt toplayın
- Sözleşmeli destek sağlayıcınızdan bir servis isteği açın
6. Adım: Çok sayıda küçük dosya içeren yedeklemeleri denetleyin
DDFS küçük dosyaları, (aslında boyutu yaklaşık 10 MB'den küçük olan dosyalardır) tasarımları gereği DDR'ye ilk yazıldıklarında çok fazla alan tüketebilir. Bunun nedeni, küçük dosyaların disk üzerinde birden çok 4,5 MB boyutunda bloklar halinde ayrı ayrı yer kaplamasına neden olan "SISL" (Stream Informed Segment Layout) mimarisidir. Örneğin 4 KB boyutunda bir dosya, ilk yazıldığında 9 MB'ye kadar fiziksel disk alanı tüketebilir.
Bu yüksek alan daha sonra (küçük dosyalardaki veriler daha az sayıda 4,5 MB boyutunda bloklara toplandığı için) temizleme/çöp toplama işlemi çalıştırıldığında geri kazanılır ancak bu tür yedeklemelerin çalıştırılması, daha küçük DDR modellerinin fazla kullanılmasına veya dolmasına neden olabilir.
Otomatik destekler, dosyaların boyutlarına göre düzenlenmiş histogramlarını içerir; örneğin:
Count Space
----------------------------- --------------------------
Size Files % cumul% GiB % cumul%
--------- ----------- ----- ------- -------- ----- -------
1 KiB 2,957 35.8 35.8 0.0 0.0 0.0
10 KiB 1,114 13.5 49.3 0.0 0.0 0.0
100 KiB 249 3.0 52.4 0.1 0.0 0.0
500 KiB 1,069 13.0 65.3 0.3 0.0 0.0
1 MiB 113 1.4 66.7 0.1 0.0 0.0
5 MiB 446 5.4 72.1 1.3 0.0 0.0
10 MiB 220 2.7 74.8 1.9 0.0 0.0
50 MiB 1,326 16.1 90.8 33.6 0.2 0.2
100 MiB 12 0.1 91.0 0.9 0.0 0.2
500 MiB 490 5.9 96.9 162.9 0.8 1.0
1 GiB 58 0.7 97.6 15.6 0.1 1.1
5 GiB 29 0.4 98.0 87.0 0.5 1.6
10 GiB 17 0.2 98.2 322.9 1.7 3.3
50 GiB 21 0.3 98.4 1352.7 7.0 10.3
100 GiB 72 0.9 99.3 6743.0 35.1 45.5
500 GiB 58 0.7 100.0 10465.9 54.5 100.0
> 500 GiB 0 0.0 100.0 0.0 0.0 100.0
--------- ----------- ----- ------- -------- ----- -------
----------------------------- --------------------------
Size Files % cumul% GiB % cumul%
--------- ----------- ----- ------- -------- ----- -------
1 KiB 2,957 35.8 35.8 0.0 0.0 0.0
10 KiB 1,114 13.5 49.3 0.0 0.0 0.0
100 KiB 249 3.0 52.4 0.1 0.0 0.0
500 KiB 1,069 13.0 65.3 0.3 0.0 0.0
1 MiB 113 1.4 66.7 0.1 0.0 0.0
5 MiB 446 5.4 72.1 1.3 0.0 0.0
10 MiB 220 2.7 74.8 1.9 0.0 0.0
50 MiB 1,326 16.1 90.8 33.6 0.2 0.2
100 MiB 12 0.1 91.0 0.9 0.0 0.2
500 MiB 490 5.9 96.9 162.9 0.8 1.0
1 GiB 58 0.7 97.6 15.6 0.1 1.1
5 GiB 29 0.4 98.0 87.0 0.5 1.6
10 GiB 17 0.2 98.2 322.9 1.7 3.3
50 GiB 21 0.3 98.4 1352.7 7.0 10.3
100 GiB 72 0.9 99.3 6743.0 35.1 45.5
500 GiB 58 0.7 100.0 10465.9 54.5 100.0
> 500 GiB 0 0.0 100.0 0.0 0.0 100.0
--------- ----------- ----- ------- -------- ----- -------
Çok fazla sayıda küçük dosya yazan yedeklemeler olduğuna dair kanıt varsa sistem, her temizleme/çöp toplama işlemi başlangıcının arasında kullanımın büyük ölçüde artmasından etkileniyor olabilir. Bu senaryoda, yedekleme yönteminin küçük dosyalar DDR'ye yazılmadan önce hepsinin tek bir büyük arşive (ör. tar dosyası) eklendiği bir yöntemle değiştirilmesi tercih edilir. Böyle bir arşivin sıkıştırılmaması veya şifrelenmemesi gerektiğini unutmayın (aksi takdirde, ilgili verilerin sıkıştırma oranı/tekilleştirme oranı zarar görür).
7. Adım: Tekilleştirme oranının beklenenden düşük olmadığından emin olun
Bir DDR'nin temel amacı, aygıt tarafından alınan verileri tekilleştirmek ve sıkıştırmaktır. Tekilleştirme/sıkıştırma oranı, büyük oranda sistemin kullanım durumuna ve sahip olduğu verilerin türüne bağlıdır ancak birçok durumda, kavram testi veya benzerinin kanıtı üzerinden elde edilen sonuçlara göre "beklenen" genel bir sıkıştırma oranı vardır. Sistemin geçerli genel sıkıştırma oranını belirlemek (ve böylece beklentileri karşıladığından emin olmak) için "filesys show compression" komutu kullanılabilir. Örneğin:
# filesys show compression
From: 2017-05-03 13:00 To: 2017-05-10 13:00
Active Tier:
Pre-Comp Post-Comp Global-Comp Local-Comp Total-Comp
(GiB) (GiB) Factor Factor Factor
(Reduction %)
---------------- -------- --------- ----------- ---------- -------------
Currently Used:* 20581.1 315.4 - - 65.3x (98.5)
Written:
Last 7 days 744.0 5.1 80.5x 1.8x 145.6x (99.3)
Last 24 hrs
---------------- -------- --------- ----------- ---------- -------------
* Does not include the effects of pre-comp file deletes/truncates
From: 2017-05-03 13:00 To: 2017-05-10 13:00
Active Tier:
Pre-Comp Post-Comp Global-Comp Local-Comp Total-Comp
(GiB) (GiB) Factor Factor Factor
(Reduction %)
---------------- -------- --------- ----------- ---------- -------------
Currently Used:* 20581.1 315.4 - - 65.3x (98.5)
Written:
Last 7 days 744.0 5.1 80.5x 1.8x 145.6x (99.3)
Last 24 hrs
---------------- -------- --------- ----------- ---------- -------------
* Does not include the effects of pre-comp file deletes/truncates
Yukarıdaki örnekte, sistem aktif katman için 65,3 kat genel sıkıştırma oranı sağlıyor (bu, son derece iyi bir orandır). Ancak bu değer, genel sıkıştırma oranının beklentileri karşılamadığını gösterirse daha fazla inceleme gerekli olabilir. Beklenenden düşük sıkıştırma oranını araştırmanın, birçok temel nedenden kaynaklanabilecek karmaşık bir konu olduğunu unutmayın. Detaylı araştırma hakkında daha fazla bilgi için lütfen şu makaleye bakın: https://support.emc.com/kb/487055
8. Adım: Sistemin toplama çoğaltma işleminin kaynağı olup olmadığını kontrol edin
Toplama çoğaltma işlemini kullanırken kaynak sistem, hedeften fiziksel olarak büyükse kaynak sistemin boyutu, hedefin boyutuyla eşleşecek şekilde yapay olarak sınırlandırılır (yani, kaynaktaki diskte kullanılamaz olarak işaretlenen bir alan olur). Bunun nedeni, toplama çoğaltma işlemini kullanırken hedefin, kaynağın blok düzeyinde bir kopyası olması gerekmesidir. Diğer yandan kaynak, hedeften fiziksel olarak daha büyükse kaynağa fazla veri yazılması ve (zaten dolu olduğundan) bunların hedefe çoğaltılamaması ihtimali vardır. Bu senaryo, kaynağın boyutu hedef ile eşleşecek şekilde sınırlandırılarak önlenir.
- 2. adımdaki komutları kullanarak sistemin toplama çoğaltma işlemi için bir kaynak olup olmadığını belirleyin. Bunu yapmak için "replication status" komutunu çalıştırın ve "col://" (toplama çoğaltma işlemini belirtir) ile başlayan ve hedefte yerel sistemin ana bilgisayar adını İÇERMEYEN (bu sistemin, çoğaltma bağlamı için bir kaynak olabileceğini belirtir) bir çoğaltma bağlamı olup olmadığını belirleyin
- Sistem, toplama çoğaltma işleminin kaynağıysa iki sistemde de oturum açarak ve "filesys show space" komutunu çalıştırarak her bir sistemin aktif katmanının boyutunu kontrol edin ve ikisinde de aktif katman "post-comp" değerini karşılaştırın
- Kaynak, hedeften dikkate değer bir oranda daha büyükse aktif katmanının boyutu yapay olarak sınırlandırılır
- Kaynaktaki tüm alanın veriler için kullanılabilmesini sağlamak amacıyla aşağıdakiler gerçekleştirilmelidir:
Hedef aktif katmanına, bu katmanın boyutu >= en az kaynak aktif katman boyutu olacak şekilde ilave depolama alanı ekleyin
Toplama çoğaltma bağlamını kaldırın (2. adımdaki komutları kullanarak). Bu işlemin kaynaktan-> hedef DDR'ye verilerin çoğaltılmasını önleyeceğini unutmayın
Bunların biri gerçekleştirildikten sonra, ilave alan kaynak sistemin aktif katmanında derhal kullanılabilir hale gelir (yani, bu alanı kullanmadan önce aktif katman temizleme/çöp toplama işlemini çalıştırmaya gerek yoktur)
9. Adım: Veri taşıma işleminin düzenli olarak yapıldığından emin olun
DDR, Uzatılmış Saklama (ER) veya Uzun Süreli Saklama (LTR) ile yapılandırıldıysa ikinci bir depolama katmanına (ER için arşiv katmanı ya da LTR için bulut katmanı) sahip olacaktır. Bu senaryoda büyük olasılıkla veri taşıma ilkeleri, mtree'ler için uzun süreli saklama gerektiren daha eski/değiştirilmeyen veriler, aktif katmandan alternatif bir depolama katmanına taşınacak şekilde yapılandırılmıştır. Böylece, aktif katmanda bu dosyalar tarafından kullanılan alan, temizleme/çöp toplama işlemiyle fiziksel olarak geri kazanılabilir. Veri taşıma ilkeleri yanlış yapılandırılırsa veya veri taşıma işlemi düzenli olarak çalıştırılmıyorsa eski veriler aktif katmanda beklenenden daha uzun süre kalır ve diskte fiziksel alan kullanmaya devam eder.
- Öncelikle "filesys show space" komutunu çalıştırarak ve arşiv veya bulut katmanının olup olmadığını kontrol ederek sistemin ER ya da LTR için yapılandırıldığından emin olun. Bu alternatif depolama katmanlarının kullanılabilir hale gelmesi için "post-comp" boyutları > 0 GB olmalıdır:
# filesys show space
...
Archive Tier:
Resource Size GiB Used GiB Avail GiB Use% Cleanable GiB
---------------- -------- -------- --------- ---- -------------
/data: pre-comp - 4163.8 - - -
/data: post-comp 31938.2 1411.9 30526.3 4% -
---------------- -------- -------- --------- ---- -------------
# filesys show space
...
Cloud Tier
Resource Size GiB Used GiB Avail GiB Use% Cleanable GiB
---------------- -------- -------- --------- ---- -------------
/data: pre-comp - 0.0 - - -
/data: post-comp 338905.8 0.0 338905.8 0% 0.0
---------------- -------- -------- --------- ---- -------------
...
Archive Tier:
Resource Size GiB Used GiB Avail GiB Use% Cleanable GiB
---------------- -------- -------- --------- ---- -------------
/data: pre-comp - 4163.8 - - -
/data: post-comp 31938.2 1411.9 30526.3 4% -
---------------- -------- -------- --------- ---- -------------
# filesys show space
...
Cloud Tier
Resource Size GiB Used GiB Avail GiB Use% Cleanable GiB
---------------- -------- -------- --------- ---- -------------
/data: pre-comp - 0.0 - - -
/data: post-comp 338905.8 0.0 338905.8 0% 0.0
---------------- -------- -------- --------- ---- -------------
ER ve LTR'nin birbirinden ayrışık olduğunu unutmayın. Yani sistem sadece bir aktif katman (ER/LTR yapılandırması olmadan); bir aktif katman ve arşiv katmanı (ER yapılandırılmış) ya da bir aktif katman ve bulut katmanı (LTR yapılandırılmış) içerebilir
- Sistem, ER/LTR ile yapılandırılırsa mtree'ler için veri taşıma ilkelerini denetleyerek bunların uygun olduğundan ve eski verilerin alternatif depolama katmanına gönderileceği şekilde ayarlandığından emin olun:
ER: # archive data-movement policy show
LTR: # data-movement policy show
LTR: # data-movement policy show
Veri taşıma ilkeleri yanlışsa/eksikse bunların düzeltilmesi gerekir. Bu düzeltme işlemini gerçekleştirirken yardım almak için Data Domain Yöneticiler Rehberi'ne bakın
- Sistem, ER/LTR ile yapılandırıldıysa veri taşıma işleminin, dosyaların/verilerin aktif katmandan alternatif depolama alanına fiziksel olarak taşınması için düzenli aralıklarla çalıştırılacak şekilde planlandığından emin olun:
ER: # archive data-movement schedule show
LTR: # data-movement schedule show
LTR: # data-movement schedule show
Data Domain'in çoğunlukla veri taşıma işleminin otomatik bir planlamayla yapılmasını önerdiğini unutmayın. Ancak bazı müşteriler, bu işlemi anlık olarak (yani gerekli olduğunda) yapmayı tercih eder. Bu senaryoda veri taşıma işlemi, aşağıdaki komutu çalıştırarak düzenli aralıklarla başlatılmalıdır:
ER: # archive data-movement start
LTR: # data-movement start
LTR: # data-movement start
Veri taşıma planlamasını değiştirme konusunda daha fazla bilgi için Data Domain Yöneticiler Rehberine başvurun
- Sistem, ER/LTR için yapılandırıldıysa veri taşıma işleminin en son çalıştırıldığı zamanı denetleyin:
ER: # archive data-movement status
LTR: # data-movement status
LTR: # data-movement status
Veri taşıma işlemi bir süredir yapılmamışsa bu işlemi aşağıdaki komutlarla manuel olarak başlatmayı deneyin ve izleyin:
ER: # archive data-movement watch
LTR: # data-movement watch
LTR: # data-movement watch
Veri taşıma işlemi herhangi bir nedenle başlatılamıyorsa daha fazla yardım için lütfen sözleşmeli destek sağlayıcınıza başvurun.
- Veri taşıma işlemi tamamlandığında, aktif katmanda taşınan dosyaların kullandığı alanın boşaltıldığından emin olmak için aktif katman temizleme işlemi (veri taşıma işlemi tamamlandığında otomatik olarak başlayacak şekilde de yapılandırılabilir) çalıştırılmalıdır:
# filesys clean start
ER sistemlerinde, veri taşıma işlemini düzenli aralıklarla (ör. haftada bir) çalıştırılacak şekilde planlamak ve bu işlem tamamlandıktan sonra aktif katman temizleme işleminin çalışmasını yapılandırmak yaygın olarak kullanılan bir yöntemdir. Bu senaryoda, aktif katman temizleme işleminin kendine ait bağımsız bir planlaması yoktur. Bunu ilk defa yapılandırmak için geçerli aktif katman temizleme planlamasını kaldırın:
# filesys clean set schedule never
Veri taşıma ve ardından otomatik aktif katman temizleme işlemini düzenli aralıklarla çalışacak şekilde yapılandırın. Örneğin, her salı günü saat 06.00'da veri taşıma ve ardından aktif katman temizleme işlemi çalıştırmak için:
# archive data-movement schedule set days Tue time 0600
The Archive data movement schedule has been set.
Archive data movement is scheduled to run on day(s) "tue" at "06:00" hrs
Aktif katman temizleme işleminin, veri hareketi tamamlandıktan sonra çalışacak şekilde yapılandırıldığı aşağıdaki şekilde doğrulanabilir:
# archive show config
Enabled Yes
Data movement Schedule Run on day(s) "tue" at "06:00" hrs <=== SCHEDULE
Data movement throttle 100 percent
Default age threshold data movement policy 14 days
Run filesys clean after archive data movement Yes <=== RUN CLEAN ON COMPLETION
Archive Tier local compression gz
Packing data during archive data movement enabled
Space Reclamation disabled
Space Reclamation Schedule No schedule
ER sistemlerinde, veri taşıma işlemini düzenli aralıklarla (ör. haftada bir) çalıştırılacak şekilde planlamak ve bu işlem tamamlandıktan sonra aktif katman temizleme işleminin çalışmasını yapılandırmak yaygın olarak kullanılan bir yöntemdir. Bu senaryoda, aktif katman temizleme işleminin kendine ait bağımsız bir planlaması yoktur. Bunu ilk defa yapılandırmak için geçerli aktif katman temizleme planlamasını kaldırın:
# filesys clean set schedule never
Veri taşıma ve ardından otomatik aktif katman temizleme işlemini düzenli aralıklarla çalışacak şekilde yapılandırın. Örneğin, her salı günü saat 06.00'da veri taşıma ve ardından aktif katman temizleme işlemi çalıştırmak için:
# archive data-movement schedule set days Tue time 0600
The Archive data movement schedule has been set.
Archive data movement is scheduled to run on day(s) "tue" at "06:00" hrs
Aktif katman temizleme işleminin, veri hareketi tamamlandıktan sonra çalışacak şekilde yapılandırıldığı aşağıdaki şekilde doğrulanabilir:
# archive show config
Enabled Yes
Data movement Schedule Run on day(s) "tue" at "06:00" hrs <=== SCHEDULE
Data movement throttle 100 percent
Default age threshold data movement policy 14 days
Run filesys clean after archive data movement Yes <=== RUN CLEAN ON COMPLETION
Archive Tier local compression gz
Packing data during archive data movement enabled
Space Reclamation disabled
Space Reclamation Schedule No schedule
LTR sistemlerinde aktif katman temizleme işlemine özel bir planlama yapılandırılmalıdır
10. Adım: Etkin katmana ilave depolama alanı ekleme
Önceki tüm adımlar gerçekleştirilip aktif katman temizleme işlemi tamamlandıysa ancak aktif katmanda hâlâ yeterli alan yoksa sistem, aldığı iş yüküne göre doğru şekilde boyutlandırılmamış olabilir. Bu durumda aşağıdakilerden biri gerçekleştirilmelidir:
- Sisteme gelen iş yükünü azaltın. Örneğin:
Bir yedek alt kümesini alternatif depolama alanına yönlendirin
Yedeklemelerin daha hızlı şekilde süresinin dolmasını/silinmesini sağlayarak saklama süresini azaltın
Sistemdeki mtree'lerin planlanmış anlık görüntülerinin sayısını/süresinin dolma zamanını azaltın
Yerel sistemin hedef olduğu gereksiz çoğaltma bağlamları kaldırıp ilgili mtree'leri silin
Yedeklemelerin daha hızlı şekilde süresinin dolmasını/silinmesini sağlayarak saklama süresini azaltın
Sistemdeki mtree'lerin planlanmış anlık görüntülerinin sayısını/süresinin dolma zamanını azaltın
Yerel sistemin hedef olduğu gereksiz çoğaltma bağlamları kaldırıp ilgili mtree'leri silin
- Sistemin aktif katmanına ilave depolama alanı ekleyin ve boyutunu genişletin:
# storage add [tier active] enclosure [enclosure number] | disk [device number]
# filesys expand
# filesys expand
Depolama ilavesi konusunu görüşmek için lütfen satış hesap ekibinizle iletişime geçin.
Дополнительная информация
Data Domain desteği, aşağıdaki gibi bilgileri gösteren çeşitli raporlar oluşturabilir:
- Belirli bir katmandaki (ör. aktif/arşiv/bulut) tüm dosyaların yaşa göre sıralanmış listesi
- Mtree/ana dizin ağacına göre tahmini boyut ve sıkıştırma oranı
- Belirli bir mtree'deki tüm dosyaların yaşa göre sıralanmış listesi
- vb.
Buna izin vermek için aşağıdaki bilgiler toplanmalıdır:
- DDR'den yeni bir destek paketi: Daha fazla bilgi için şu makaleye bakın: https://support.emc.com/kb/323283
- "sfs_dump" veya "sfs_dump -c" çıktısı:
DDR CLI'de oturum açın ve SE moduna geçin (şifreleme ve/veya saklama kilidi ile yapılandırılan sistemlerin bu noktada "güvenlik" rolü olan bir kullanıcının kimlik bilgilerini isteyebileceğini unutmayın):
# system show serialno
[system serial number displayed]
# priv set se
[password prompt - enter system serial number from above]
[system serial number displayed]
# priv set se
[password prompt - enter system serial number from above]
Terminal oturumunuzda günlük kaydını etkinleştirin. Örneğin, PuTTY kullanılıyorsa bu, aşağıdaki şekilde yapılabilir: Menü çubuğuna sağ tıklayın -> Change settings... (Ayarları değiştir...) -> Session (Oturum) -> Logging (Günlük Kaydı) -> Tüm oturum çıktısını seçip bir dosya adı belirleyin -> Apply (Uygula)
sfs_dump komutunu çalıştırın:
# se sfs_dump
İşlem tamamlandıktan sonra lütfen daha ayrıntılı analiz için oturum günlüğünün bir kopyasını edinin.
- Bir dosya konumu raporu (sistem, ER veya LTR için yapılandırılmışsa gereklidir):
DDR CLI'de oturum açın
Terminal oturumunuzda günlük kaydını etkinleştirin. Örneğin, PuTTY kullanılıyorsa bu, aşağıdaki şekilde yapılabilir: Menü çubuğuna sağ tıklayın -> Change settings... (Ayarları değiştir...) -> Session (Oturum) -> Logging (Günlük Kaydı) -> Tüm oturum çıktısını seçip bir dosya adı belirleyin -> Apply (Uygula)
Bir dosya konumu raporu alın:
ER: # archive report generate file-location
LTR: # filesys report generate file-location
İşlem tamamlandıktan sonra lütfen daha ayrıntılı analiz için oturum günlüğünün bir kopyasını edinin
Terminal oturumunuzda günlük kaydını etkinleştirin. Örneğin, PuTTY kullanılıyorsa bu, aşağıdaki şekilde yapılabilir: Menü çubuğuna sağ tıklayın -> Change settings... (Ayarları değiştir...) -> Session (Oturum) -> Logging (Günlük Kaydı) -> Tüm oturum çıktısını seçip bir dosya adı belirleyin -> Apply (Uygula)
Bir dosya konumu raporu alın:
ER: # archive report generate file-location
LTR: # filesys report generate file-location
İşlem tamamlandıktan sonra lütfen daha ayrıntılı analiz için oturum günlüğünün bir kopyasını edinin
Yukarıdaki bilgileri toplama konusunda veya bu arşivdeki adımlardan biriyle ilgili yardım almak için sözleşmeli destek sağlayıcınıza başvurun.
Затронутые продукты
Data DomainПродукты
Data DomainСвойства статьи
Номер статьи: 000054303
Тип статьи: Solution
Последнее изменение: 21 Jul 2025
Версия: 6
Получите ответы на свои вопросы от других пользователей Dell
Услуги технической поддержки
Проверьте, распространяются ли на ваше устройство услуги технической поддержки.