Linux: shell скрипты для архивации сайта
2 простых скрипта для создания резервных копий сайта.
Получаем дамп mysql базы данных, архивируем и удаляем архивы старше 5 дней:
( Читать дальше )
Получаем дамп mysql базы данных, архивируем и удаляем архивы старше 5 дней:
( Читать дальше )
- +5
- 21 мая 2010, 00:12
- 2
Встречаем ... Cherokee!
Cherokee — это очень быстрый, гибкий и легкий в настройке веб-сервер. Он поддерживает широко распространенные технологии: FastCGI, SCGI, PHP, CGI, uWSGI, SSI, зашифрованные TLS и SSL соединения, виртуальные хосты, аутентификацию, балансировку нагрузки, log файлы совместимые с Apache, балансировку нагрузки на базу данных, обратный HTTP прокси, шэйпинг трафика, потоковое видео и многое другое.
Кроме того, сервер имеет удобный интерфейс администрирования Cherokee-Admin.
Судя по результатам тестов, Cherokee быстрее nginx и lighttpd, и в некоторых тестах более чем в 2 раза быстрее Apache!
Рекомендую посмотреть скринкасты.
Кроме того, сервер имеет удобный интерфейс администрирования Cherokee-Admin.
Судя по результатам тестов, Cherokee быстрее nginx и lighttpd, и в некоторых тестах более чем в 2 раза быстрее Apache!
Рекомендую посмотреть скринкасты.
- +7
- 18 марта 2010, 14:45
- 22
Скачиваем сайты целиком (Linux)
Удивительно, но скачать все доступные страницы какого-либо сайта можно обычной командой wget:
В данном примере параметр wait позволяет делать паузу в 10 секунд между каждым запросом, limit-rate ограничивает скорость. Это не помешает, так как на многих хостингах частые запросы с одного IP будут блокироваться.
Вот так, не торопясь, можно получить все доступные страницы сайта.
wget --wait=10 --limit-rate=100K -r -p -U Mozilla http://www.site.ru
В данном примере параметр wait позволяет делать паузу в 10 секунд между каждым запросом, limit-rate ограничивает скорость. Это не помешает, так как на многих хостингах частые запросы с одного IP будут блокироваться.
Вот так, не торопясь, можно получить все доступные страницы сайта.
- +8
- 14 марта 2010, 01:02
- 2
← предыдущая следующая →