[Comm] список url-адресов из html файла
Dmytro O. Redchuk
=?iso-8859-1?q?dor_=CE=C1_ldc=2Enet?=
Пт Апр 15 18:07:20 MSD 2005
On Thu, Apr 14, 2005 at 11:00:30PM +0400, Aleksey E. Birukov wrote:
> В сообщении от 14 Апрель 2005 22:48 php-coder написал(a):
> > --- Aleksey E. Birukov 2005-04-14 19:08:19 +0400
> > +++ php-coder 2005-04-15 01:46:45 +0700
> >
> > > Кто-нибудь знает как получить сабж? Просмотрел на предмет этого lynx,
> > > wget, curl. Может не нашел нужной опции?
> >
> > lynx -dump URL
> >
> > Все URL'ы в конце страницы... оно?
> Почти...
> Если дороботать sed/awk/cut можно добится нужного мне результата.
> Может еще есть варианты?
>
> Мне это нужно для составления списка для закачек. Т.е. одним списком url
> адресов.
А точнее задачу можно сформулировать?-)
ps. Просто в man wget, скажем, есть такое "However, if you specify
--force-html, the document will be..." (то есть, и думать не
надо).
> --
> $respect
> _______________________________________________
> Community mailing list
> Community на altlinux.ru
> https://lists.altlinux.ru/mailman/listinfo/community
--
_,-=._ /|_/|
`-.} `=._,.-=-._., @ @._,
`._ _,-. ) _,.-'
` G.m-"^m`m' Dmytro O. Redchuk
Подробная информация о списке рассылки community