=?iso-8859-1?q?=5Bmdk-re=5D_=EB=C1=CB_=D3=C4=C5=CC=C1=D4=D8_=CC=CF=CB=C1?= =?iso-8859-1?q?=CC=D8=CE=CF=C5_=DA=C5=D2=CB=C1=CC=CF_=D3=C1=CA=D4=C1=3F?=
Ivan Kudryashov
=?iso-8859-1?q?jony_=CE=C1_chat=2Eru?=
Чт Мар 29 14:28:15 MSD 2001
Здравствуйте!
Проблема такая:
Мне нужно иметь на локальной машине зеркало некоего сайта (на самом
деле, не одного, а многих, но это уже лирика). Зеркало должно быть
корректно локализовано, т.е. в нём должны быть перекодированы все
внутренние html - ссылки. Вроде бы, всё это делается с помощью:
wget -c -k -L -l <глубина> -N <адрес>
НО!
При использовании ключа -k изменяется размер закачанных страниц, в
результате чего при последующих обновлениях на них не распространяется
-N (у меня, во всяком случае явное впечатление, основанное на опыте) -
файлы перезакачиваются снова. Сделать -nc нельзя, потому что некоторые
страницы меняются со временем. Очевидный выход - всосать сайт без -k,
но тогда его невозможно смотреть обычными средствами.
Под виндами есть такой OfflineExplorer, падучий, но решающий эту
проблему примитивнейшим образом - он хранит закачанные файлы
неизменными (добавляя к имени файла '.primary'), а конверсию ссылок
делает на копии, доступной для просмотра.
Вижу варианты:
1. Найти способ закачивать файлы с проверкой времени создания, но
отключенной проверкой совпадения размеров. Кто-нибудь знает, как?
2. Выкачивать оригиналы, делать локальную копию и конвертить ссылки
прямо в ней. Кто-нибудь знает готовую программу для конверсии
ссылок?
3. (Шаманский). Подсунуть выкачанный сайт прокси-серверу в кэш, так,
чтобы обращение к сайту автоматом (и без попыток обратиться наружу,
при отключенном момеде, например) обрабатывалось и я получал ранее
выкачанные страницы. Но это требует спецобработки этого куска кэша
(чтобы он не сбрасывался и не делались попытки проверить обновление
страниц при обращении к нему). Никто не пробовал?
-------------------------------------------
С уважением,
Ivan Kudryashov <jony на chat.ru> ICQ 1547081
Подробная информация о списке рассылки community