[Comm] список url-адресов из html файла

Dmytro O. Redchuk =?iso-8859-1?q?dor_=CE=C1_ldc=2Enet?=
Пт Апр 15 18:07:20 MSD 2005


On Thu, Apr 14, 2005 at 11:00:30PM +0400, Aleksey E. Birukov wrote:
> В сообщении от 14 Апрель 2005 22:48 php-coder написал(a):
> > --- Aleksey E. Birukov 2005-04-14 19:08:19 +0400
> > +++ php-coder 2005-04-15 01:46:45 +0700
> >
> > > Кто-нибудь знает как получить сабж? Просмотрел на предмет этого lynx,
> > > wget, curl. Может не нашел нужной опции?
> >
> >     lynx -dump URL
> >
> >     Все URL'ы в конце страницы... оно?
> Почти...
> Если дороботать sed/awk/cut можно добится нужного мне результата.
> Может еще есть варианты?
> 
> Мне это нужно для составления списка для закачек. Т.е. одним списком url 
> адресов.
А точнее задачу можно сформулировать?-)

ps. Просто в man wget, скажем, есть такое "However, if you specify
	--force-html, the document will be..." (то есть, и думать не
	надо).

> -- 
> $respect

> _______________________________________________
> Community mailing list
> Community на altlinux.ru
> https://lists.altlinux.ru/mailman/listinfo/community


-- 
  _,-=._              /|_/|
  `-.}   `=._,.-=-._.,  @ @._,
     `._ _,-.   )      _,.-'
        `    G.m-"^m`m'        Dmytro O. Redchuk




Подробная информация о списке рассылки community