|
|
sydoow V.I.P. |
Зарегистрирован: 29.06.2007
Сообщений: 8213
|
Обратиться по нику
|
sydoow |
Ответить с цитатой | | |
|
Есть список ссылок. Нужно пройтись по всем этим ссылкам и собрать все ссылки которые там есть.
Чем это можно сделать? |
|
|
|
|
|
|
blam Опытный |
Зарегистрирован: 13.03.2008
Сообщений: 240
|
Обратиться по нику
|
blam |
Ответить с цитатой | | |
|
сграбить offline explorer и выдрать например emeditor или php скрипт заюзать(заказать) |
|
|
|
|
|
Бложок |
ctapbiu Опытный |
Зарегистрирован: 06.01.2008
Сообщений: 328
|
Обратиться по нику
|
ctapbiu |
Ответить с цитатой | | |
|
<del>sydoow, в каком виде ссылки?
покажи кусок списка
</del>
дошло до меня ,))
ну можно банально курлом дергать страницы, сохранить, а потом по ним пробежаться скриптом, которые будет собирать ссылки |
|
|
|
|
|
|
PistoGanza Свой |
Зарегистрирован: 13.07.2009
Сообщений: 60
|
Обратиться по нику
|
|
|
|
sydoow V.I.P. |
Зарегистрирован: 29.06.2007
Сообщений: 8213
|
Обратиться по нику
|
sydoow |
Ответить с цитатой | | |
|
blam, почти так и сделал
ctapbiu, PistoGanza, я программирование не знаю
Короче даунлоад мастером скачал все эти страницы, объединил в один файл, щас буду выдёргивать както, пока ещё не придумал как Щас гляну emeditor
Глянул emeditor, какойто он сложный да и shareware. Буду искать чтонибудьт попроще. |
|
|
|
|
|
|
iskand3r Свой |
Зарегистрирован: 20.11.2009
Сообщений: 66
|
Обратиться по нику
|
iskand3r |
Ответить с цитатой | | |
|
Код: |
<?php
$page=file_get_contents('тут url страницы откуда дергать');
preg_match_all('|<a href="(.*)">(.*)</a>|Uis',$page,$links);
$q=0;
foreach($links[1] as $c){
echo $c;
echo $links[2][$q];
$q++;
}
?>
|
ну как то так вроде
п.с. хз не проверял, может и не работает, с кпкхи набирал.
а вообще мож взять WebInfoExtractor - дергает че угодно на ура. |
|
|
|
|
|
Censored Signature |
|