Web geliştirirken veya mevcut bir statik siteyi offline incelemek istediğinizde, sitenin tamamını hızlıca indirip yerel bilgisayarınızda görüntülemek isteriz. İşte burada Linux’un güçlü aracı wget devreye girer.
wget ile tüm siteyi komple indirip, linkleri yerel yapıya uygun şekilde değiştiren --mirror komutunu nasıl kullanacağınızı bu yazıda öğreneceksiniz.
wget –mirror nedir?
wget bir komut satırı dosya indirme aracıdır. Normalde tek bir dosyayı indirirken, --mirror parametresi ile bir sitenin tamamını (sayfalar, CSS, JS, resimler vb.) recursive olarak indirir.
Bu sayede offline kullanım için tam bir kopya elde etmiş olursunuz.
Temel Komut
| |
Bu komutun bileşenleri şöyle:
--mirror: Recursive indirme + zaman damgası kontrolü (sadece güncel olmayanları indirir)--convert-links: İndirilen sayfalardaki linkleri yerel dosyalara uygun olarak değiştirir--adjust-extension: Dosya uzantılarını (örneğin.html) uygun şekilde ayarlar--page-requisites: Sayfaların tam çalışması için gereken CSS, JS, görselleri indirir--no-parent: Belirtilen URL dışındaki üst dizinlere çıkmayı engeller
İşlem sonunda example.com klasörü içinde sitenin tam yedeğini bulursunuz. Artık internet bağlantısı olmadan da siteyi tarayıcınızda açabilirsiniz.
Dikkat Edilmesi Gerekenler
- Çok büyük sitelerde disk alanı hızla tükenebilir.
- Bazı dinamik içerikler (PHP, JS ile oluşturulanlar) düzgün indirilemeyebilir.
- Sunucu tarafında aşırı trafik oluşturabilir, dikkatli ve izin alarak kullanmak gerekir.
robots.txtile indirmenin engellendiği sitelerde hata alabilirsiniz.
Sonuç
Statik siteleri hızlıca indirip offline incelemek için wget mirror komutu hayat kurtarır. Geliştiriciler, içerik arşivlemek isteyenler, internet erişimi sınırlı kişiler için harika bir araçtır.
Sadece birkaç parametreyle güçlü bir yansıtma (mirror) işlemi yapabilir, sitenin orijinal haline oldukça yakın bir offline kopyaya sahip olabilirsiniz.