ďťż
Podstrony
|
telcocafeWitam!Napisałem prosty programik w php parsujący stronę w poszukiwaniu linka i ściągający PDF'y z archiwum www.mt.com.pl/archiwum/. Jestem początkujący w PHP, z pomocą tego forum znalazłem sposób na sciaganie plików - file_put_contents i file_get_contents. Sposób sprawdzał się w przypadku plików GIF, ale ściąga PDF'y których nie mogę otworzyć. "Program" pracuje na Ubuntu z serwerem LAMP. Oto kod: <?php for ($i=1; $i<=5; $i++) { $curl = curl_init(); curl_setopt($curl, CURLOPT_URL, "http://mt.com.pl/?id=12&ar=wsp&art=$i"); curl_setopt($curl, CURLOPT_RETURNTRANSFER, 1); $strona = curl_exec($curl); curl_close($curl); preg_match_all('</archiwum/.*.pdf>', $strona, $out); $adresy[$i] = substr($out[0][0], 10); echo $adresy[$i]."\n"; echo '=> '.$adresy[$i]."\n"; file_put_contents('arch/'.$adresy[$i], file_get_contents('http://mt.com.pl/archiwum/'.$adresy[i])); } ?> Możliwe, że w kodzie jest wiele błędów, więc proszę o pomoc w znalezieniu ich i powodu dla którego źle ściąga pliki. Z góry dzieki za wszystkie mniej lub bardziej pomocne odpowiedzi ;). To się nazywa skrypt. Co ten skrypt wyświetla w pliku, który ściągasz? Bo być może jest tam kod błędu... // Edytowano @niżej: A może jest jakaś blokada jak w Wikipedii?... Użytkownik andrzej_aa edytował ten post 11 sierpień 2008, 17:39 jedno pytanie po co mieszac uzycie curl i file_get_contnent ? @andrzej_aa dzięki za podpowiedź okazalo sie ze skrypt sciaga pliki html z rozszerzeniem *.pdf. A powodem tego było http://mt.com.pl/archiwum/'.$adresy[$i]. ($ przy I) @beldzio rzeczywiście mógłbym wszystko zrobić z curlem lub file_get_content. nie ma tam zadnych blokad ;) dzięki Użytkownik Linux--User edytował ten post 19 sierpień 2008, 12:05 |
|||
Sitedesign by AltusUmbrae. |