Witaj Gościu! ( Zaloguj | Rejestruj )

Forum PHP.pl

 
Reply to this topicStart new topic
> [PHP][cURL]
masterix
post
Post #1





Grupa: Zarejestrowani
Postów: 93
Pomógł: 0
Dołączył: 7.09.2004

Ostrzeżenie: (0%)
-----


Witam,

Aktualnie piszę skrypt, który pobiera bardzo dużo danych z innego serwisu. Problem w tym, że za pomocą cURL'a idzie to dość wolno i zwykle po ok. godzinie skrypt przestaje pracować. Czy idzie jakoś przyśpieszyć pobieranie samych treści stron ( nie wiem, może poprzez ominięcie niektórych rzeczy od razu, jak jakieś nagłówki, wykorzystanie fsockopen zamiast cURL etc ) ?

pzdr.
Go to the top of the page
+Quote Post
Blastereq
post
Post #2





Grupa: Zarejestrowani
Postów: 42
Pomógł: 0
Dołączył: 28.11.2005

Ostrzeżenie: (0%)
-----


Zależy co pobierasz... W jaki sposób i jaki efekt chcesz osiągnąć. Napisz trochę więcej informacji.

Ten post edytował Blastereq 8.05.2007, 16:07:31
Go to the top of the page
+Quote Post
masterix
post
Post #3





Grupa: Zarejestrowani
Postów: 93
Pomógł: 0
Dołączył: 7.09.2004

Ostrzeżenie: (0%)
-----


Pobieram stronę na której są linki. Szukam tych linków za pomocą preg_match_all i odwiedzam każdy z nich, pobierając stronę a na niej wyszukuję konkretne informacje tekstowe. Używam do tego preg_match.

pzdr.
Go to the top of the page
+Quote Post
doseo
post
Post #4





Grupa: Zarejestrowani
Postów: 28
Pomógł: 3
Dołączył: 23.01.2007
Skąd: Dys/Lublin

Ostrzeżenie: (0%)
-----


Ja w tym wypadku proponowałbym użycie 2 procesów. Pierwszy pobierałby strony których adresy znalazł by w bazie i wrzucał do bazy albo pliku a drugi zajmował by się przetwarzaniem tych stron i wrzucaniem nowych adresów do plików. Pozwoliło by to na częściowe uniknięcie przestojów.
Go to the top of the page
+Quote Post

Reply to this topicStart new topic
2 Użytkowników czyta ten temat (2 Gości i 0 Anonimowych użytkowników)
0 Zarejestrowanych:

 



RSS Aktualny czas: 28.08.2025 - 20:13