Задался вопросом, как мне делать копии сайтов для локального просмотра (без интенрет). Покопавшись немного я понял, что адекватной программы на подобии WinHTTrack в Ubuntu нет. Зато есть wget!
С помощью этой очень сильной программы скачать сайт целиком вовсе не проблема.
Вот пример команды для скачки сайта с дальнейшим просмотра его без интернет:
wget -r -k -l 100 -p --wait=5 -Q20m -e robots=off -P /home/имя/
http://site.ru/ Эта команда у меня работает 100 %.
Интересно, можно ли при помощи wget сделать резервную копию сайта?