Linux: shell скрипты для архивации сайта

2 простых скрипта для создания резервных копий сайта.

Получаем дамп mysql базы данных, архивируем и удаляем архивы старше 5 дней:

( Читать дальше )

Встречаем ... Cherokee!

Cherokee — это очень быстрый, гибкий и легкий в настройке веб-сервер. Он поддерживает широко распространенные технологии: FastCGI, SCGI, PHP, CGI, uWSGI, SSI, зашифрованные TLS и SSL соединения, виртуальные хосты, аутентификацию, балансировку нагрузки, log файлы совместимые с Apache, балансировку нагрузки на базу данных, обратный HTTP прокси, шэйпинг трафика, потоковое видео и многое другое.

Кроме того, сервер имеет удобный интерфейс администрирования Cherokee-Admin.



Судя по результатам тестов, Cherokee быстрее nginx и lighttpd, и в некоторых тестах более чем в 2 раза быстрее Apache!

Рекомендую посмотреть скринкасты.

Скачиваем сайты целиком (Linux)

Удивительно, но скачать все доступные страницы какого-либо сайта можно обычной командой wget:

wget --wait=10 --limit-rate=100K -r -p -U Mozilla http://www.site.ru


В данном примере параметр wait позволяет делать паузу в 10 секунд между каждым запросом, limit-rate ограничивает скорость. Это не помешает, так как на многих хостингах частые запросы с одного IP будут блокироваться.

Вот так, не торопясь, можно получить все доступные страницы сайта.