Cara Mengunduh Website
Banyak pembaca blog saya yang bertanya
Mas/Om/Pak/Bos/whatever, bolehkah isi blognya saya download?
Jawabannya tentu saja boleh. Kalau tidak boleh buat apa saya publish ;)
Pertanyaan selanjutnya
Bagaimana cara mengunduh seluruh isi website supaya bisa dibuka tanpa internet?
Gampang, begini caranya.
Linux sudah mempunyai aplikasi pengunduh yang sangat sakti, namanya wget
. Kita tinggal jalankan di command line dengan opsi-opsi yang sesuai, maka dia akan mengunduh seluruh website untuk kita. Aplikasi wget
ini umumnya sudah tersedia di semua distro linux populer, sehingga tidak dibutuhkan langkah instalasi tambahan.
Kok command line? Apa tidak ada yang GUI?
Sebetulnya ada banyak. Tapi untuk keperluan download, aplikasi command line jauh lebih baik. Kita bisa login melalui ssh
ke mesin lain yang memiliki koneksi internet bagus dan menjalankan wget
disana. Tinggalkan beberapa hari, setelah itu dicek apakah sudah selesai. Begitu selesai, kita tinggal copy ke laptop kita. Hal ini sulit dilakukan dengan aplikasi berbasis GUI.
Tanpa banyak basa-basi, inilah perintah wget
beserta opsi-opsi yang dibutuhkan
wget \
--recursive \
--convert-links \
--adjust-extension \
--page-requisites \
--span-hosts \
-e robots=off \
--timestamping \
--domains=software.endy.muhardin.com \
http://software.endy.muhardin.com
Penjelasan opsi:
recursive
: tiap ada link di halaman web, link tersebut ikut diunduhconvert-links
: ubah link (halaman lain, gambar, javascript, dsb) menjadi link lokal, supaya dia tidak mengarah ke internetadjust-extension
: bila ada link yang dinamis seperticgi
,asp
,php
, konversi menjadi extension statis sepertihtml
page-requisites
: unduh semua kebutuhan halaman supaya tampilannya sesuai asli (misalnya gambar, stylesheet, dsb)span-hosts
: banyak orang (termasuk saya) menghosting gambar di layanan publik seperti flickr, google plus, dan lainnya. Opsi ini menyuruhwget
supaya link di luar website saya juga diunduhrobots=off
: ada beberapa website yang melarang halaman dibuka selain oleh browser. Opsi ini perlu supaya larangan tersebut diabaikantimestamping
: timestamp tiap file diset sesuai di server. Ini memungkinkan kita untuk menjalankan lagi wget di lain hari untuk mengupdate website yang sudah pernah kita unduh. Dengan opsi ini, file yang sudah diunduh tidak akan diunduh ulang. Menghemat bandwidth dan waktudomains
: membatasi halaman yang diunduh hanya untuk domain tertentu- URL website yang ingin diambil. Pada contoh di atas adalah
http://software.endy.muhardin.com
Demikianlah cara mengunduh website ini. Semoga bermanfaat.
Tunggu … tunggu … Saya pakai Windows, bagaimana caranya mengunduh di Windows?
Gampang, instal saja Ubuntu :D